El modelo de inteligencia artificial Grok generó aproximadamente 3 millones de imágenes sexualizadas en menos de dos semanas, incluyendo 23.000 que parecen representar a menores de edad, según investigadores del Centro para Contrarrestar el Odio Digital (CCDH). La organización describe a Grok como una “máquina a escala industrial para la producción de material de abuso sexual”.
La estimación del CCDH se basa en el análisis del funcionamiento de la herramienta de generación de imágenes de Elon Musk, que provocó indignación internacional al permitir a los usuarios subir fotografías de personas, tanto desconocidas como celebridades, para modificarlas digitalmente, desnudándolas o vistiéndolas con trajes de baño provocativos, y publicando las imágenes en X (anteriormente Twitter).
La tendencia se viralizó a principios de año, alcanzando un pico de 199.612 solicitudes individuales el 2 de enero, de acuerdo con un análisis realizado por Peryton Intelligence, una empresa especializada en inteligencia digital y la detección de discursos de odio en línea.
Una evaluación más exhaustiva de los resultados generados por la función, desde su lanzamiento el 29 de diciembre de 2025 hasta el 8 de enero de 2026, realizada por el CCDH, sugiere que el impacto de la tecnología podría haber sido mayor de lo que se pensaba inicialmente. Entre las figuras públicas identificadas en imágenes sexualizadas se encuentran Selena Gomez, Taylor Swift, Billie Eilish, Ariana Grande, Ice Spice, Nicki Minaj, Christina Hendricks, Millie Bobby Brown, la viceprimera ministra sueca Ebba Busch y la exvicepresidenta de Estados Unidos, Kamala Harris.
La función fue restringida a usuarios de pago el 9 de enero, y se implementaron restricciones adicionales tras las declaraciones del primer ministro británico, Keir Starmer, quien calificó la situación de “repugnante” y “vergonzosa”. Otros países, como Indonesia y Malasia, anunciaron bloqueos a la herramienta de IA.
El CCDH estimó que, durante el período de 11 días, Grok estaba contribuyendo a la creación de imágenes sexualizadas de menores cada 41 segundos. Esto incluyó el caso de una selfie subida por una estudiante de secundaria que fue alterada por Grok, transformando una “foto antes de ir a la escuela” en una imagen de ella en bikini.
“Lo que encontramos fue claro y perturbador: durante ese período, Grok se convirtió en una máquina a escala industrial para la producción de material de abuso sexual”, afirmó Imran Ahmed, director ejecutivo del CCDH. “Desnudar a una mujer sin su permiso es abuso sexual. A lo largo de ese tiempo, Elon Musk promocionaba el producto incluso cuando era evidente para el mundo que se estaba utilizando de esta manera. Lo que Elon estaba generando era controversia, atención, interacción y usuarios. Era profundamente inquietante.”
Añadió: “Este se ha convertido en un guion estándar en Silicon Valley, y en particular para las plataformas de redes sociales y de inteligencia artificial. Los incentivos están mal alineados. Se benefician de esta indignación. No se trata de Musk personalmente. Se trata de un sistema [con] incentivos perversos y sin salvaguardias mínimas prescritas en la ley. Y hasta que los reguladores y los legisladores cumplan con su trabajo y creen una expectativa mínima de seguridad, esto seguirá sucediendo.”
X anunció que había detenido su función Grok para editar imágenes de personas reales y mostrarlas con ropa reveladora, incluso para suscriptores premium, el 14 de enero.
X hizo referencia a su declaración de la semana pasada, que indicaba: “Seguimos comprometidos a hacer de X una plataforma segura para todos y continuamos teniendo tolerancia cero para cualquier forma de explotación sexual infantil, desnudez no consentida y contenido sexual no deseado.
“Tomamos medidas para eliminar el contenido violatorio de alta prioridad, incluido el material de abuso sexual infantil y la desnudez no consentida, tomando las medidas adecuadas contra las cuentas que violan nuestras X reglas. También denunciamos a las autoridades policiales las cuentas que buscan material de explotación sexual infantil según sea necesario.”
