Elon Musk and xAI·Grok logos. AFP Yonhap News
“Pensé, ‘seguramente esto no puede ser real’. Así que lo probé con una foto mía de la infancia. Era real. Verdaderamente repugnante.”
Un periodista independiente del Reino Unido compartió una imagen en X el 2 de enero junto con este mensaje. La imagen que publicó mostraba el resultado del servicio de inteligencia artificial (IA) ‘Grok’ dentro de X, transformando a una niña en un atuendo de bikini a petición de “cambiarle la ropa por un bikini”. Una foto de la infancia tomada con un vestido y un cárdigan fue alterada de forma impecable.
La controversia continúa en torno a la generación y distribución de imágenes de explotación sexual por parte de Grok. La falta de salvaguardias y un vacío de responsabilidad, durante mucho tiempo ocultos tras los avances en la tecnología de la IA, ha salido a la luz.
La red social X, antes conocida como ‘Twitter’, y el chatbot de IA generativa Grok son operados por la empresa de IA ‘xAI’, liderada por el director ejecutivo de Tesla, Elon Musk. Grok puede utilizarse dentro del servicio X.
A finales del mes pasado, cuando se añadió una función de ‘edición de imágenes’ a Grok, surgió una gran preocupación de que facilitara la creación de imágenes falsas sexualizadas (deepfakes). Con esta función, si un usuario de X etiqueta a Grok en un comentario en una publicación que contiene una imagen para solicitar ediciones, Grok genera y sube la imagen sin el consentimiento del sujeto original.
Por ejemplo, alguien podría cambiar libremente una foto que yo haya publicado para mostrarme en ropa interior, y otros usuarios podrían verla también. Grok prohíbe transformar a una persona en un estado completamente desnudo, pero se sabe que tiene una moderación más laxa que otros servicios.
La organización sin ánimo de lucro europea ‘AI Forensics’ analizó 200.000 imágenes aleatorias generadas por Grok entre el 25 de diciembre del año pasado y el 1 de este mes, y descubrió que el 53% representaba a personas que vestían solo ropa interior o bikinis. De estas, el 81% parecían ser mujeres. El dos por ciento de todas las imágenes parecía presentar a personas menores de 18 años. Entre las imágenes que generó Grok se encontraban propaganda nazi y del grupo militante islamista Estado Islámico (ISIS).
El 2 de enero, Grok declaró en respuesta a una publicación de un usuario que planteaba el problema: “Hemos identificado defectos en las salvaguardias y los estamos corrigiendo urgentemente. El material de explotación sexual infantil es ilegal y está prohibido”. Al día siguiente, Musk comentó en otra publicación: “Aquellos que utilicen Grok para crear contenido ilegal se enfrentarán a las mismas sanciones que cuando suban contenido ilegal”. X dijo que elimina el contenido ilegal y suspende permanentemente las cuentas, y coopera con las fuerzas del orden cuando es necesario.
En Corea del Sur también, la producción y distribución de pornografía utilizando IA puede ser castigada en virtud de la Ley de Casos Especiales relativos al Castigo de los Delitos Sexuales y la Ley de Protección de los Niños y Jóvenes contra los Delitos Sexuales, entre otras. Sin embargo, una sentencia judicial del año pasado dictaminó que las fotos de exposición creadas por IA no pueden ser castigadas como la distribución de vídeos falsos en virtud de la ley de castigo de la violencia sexual a menos que la víctima sea identificable, lo que ha suscitado llamamientos a la complementación legislativa.
También se critica que Musk y xAI estén minimizando su propia responsabilidad y trasladándola a los usuarios. A través de su ‘política de restricciones de uso’, xAI prohíbe “representar a las personas de forma obscena” y “la objetivación o explotación sexual de los niños”. Sin embargo, xAI ha atraído a usuarios promocionando su bajo nivel de moderación. Recientemente, la participación de los usuarios en X alcanzó un máximo histórico.
Las autoridades de la Unión Europea (UE), el Reino Unido, India y Malasia están investigando actualmente la generación de imágenes de explotación sexual por parte de Grok.
El medio estadounidense Axios evaluó la controversia como “haber puesto al descubierto la cuestión de quién es en última instancia responsable de los daños causados por la producción de un chatbot”. CNN dijo que “muestra lo peligrosos que pueden ser la IA y las redes sociales cuando se combinan sin salvaguardias suficientes para proteger a los más vulnerables de la sociedad”.
