El pasado 10 de abril, un tiroteo en una escuela de Florida dejó dos personas heridas y generó una investigación internacional tras la revelación de que el presunto autor había utilizado inteligencia artificial para planificar el ataque.
Según fuentes policiales citadas por medios noruegos, el joven de 17 años, identificado como un estudiante noruego residente en Florida, había interactuado con un modelo de lenguaje de gran tamaño —específicamente ChatGPT— para obtener información sobre cómo llevar a cabo un tiroteo masivo en un entorno escolar.
Las autoridades de EE.UU. Confirmaron que el sospechoso fue detenido poco después del incidente y que, durante el interrogatorio, admitió haber buscado orientación en plataformas de IA para diseñar el ataque, incluyendo detalles sobre armas, tácticas y selección de objetivos.
El caso ha despertado preocupación en ambos lados del Atlántico, ya que marca uno de los primeros casos documentados en los que un menor utilizó explícitamente un modelo de lenguaje como herramienta de planificación para un acto de violencia extrema.
Funcionarios del gobierno noruego, incluido el primer ministro Jonas Gahr Støre, han sido informados del caso por canales diplomáticos, aunque hasta el momento no se ha emitido ninguna declaración oficial desde Oslo sobre el incidente.
Investigadores estadounidenses y expertos en seguridad digital están analizando los registros de las interacciones del joven con el sistema de IA para determinar si hubo fallos en los filtros de seguridad o si el modelo fue manipulado para evadir las restricciones de contenido.
El incidente ha relanzado el debate global sobre la responsabilidad de las empresas de inteligencia artificial en la prevención del uso malicioso de sus tecnologías, especialmente cuando se trata de menores de edad y contenidos relacionados con violencia extrema.
