El chatbot creado por Elon Musk, “Grok”, ha sido objeto de controversia tras la publicación de una gran cantidad de imágenes de contenido sexual. Según un análisis del periódico The New York Times, la herramienta de inteligencia artificial (IA) integrada en la plataforma “X” ha generado al menos 1.8 millones de imágenes sexualizadas de mujeres en apenas nueve días.
Un cálculo independiente realizado por la organización “Center for Counter Digital Hate” (CCDH) sugiere que la cifra es aún mayor, superando los 3 millones de imágenes sexualizadas de mujeres, hombres y niños. Este conteo incluye aproximadamente 23,000 imágenes que representan a menores de edad.
Ambos análisis se centran en un aumento de actividad posterior a una publicación de Musk el 31 de diciembre, en la que se le veía con una imagen de “Grok” luciendo un bikini. Del 31 de diciembre al 8 de enero, el número de imágenes generadas por “Grok” se disparó a alrededor de 4.4 millones, muchas de ellas solicitadas por usuarios de “X” que pedían al robot que desnudara a personas o sexualizara fotografías reales.
“Esta es violencia contra las mujeres y las niñas a escala industrial”, afirma Imran Ahmed, director ejecutivo de CCDH, una organización dedicada a la investigación del odio y la desinformación en línea.
CCDH define las imágenes como sexualizadas si muestran a una persona “fotorealista en poses, ángulos o situaciones sexuales; a una persona con ropa interior, trajes de baño o ropa similar reveladora; o imágenes que representen fluidos sexuales”.
Desde entonces, “X” ha reforzado algunas de sus políticas de interacción pública, pero aún permite contenido de naturaleza sexual a través de la aplicación y el sitio web de “Grok”. En la plataforma “X”, “Grok” ahora rechaza en gran medida las solicitudes de mostrar a mujeres en bikini, pero sí permite imágenes de ellas en trajes de baño y otros tipos de ropa de baño.
