Un hombre acusado de matricidio consultó a ChatGPT sobre sus paranoias antes del crimen
Un caso judicial en Connecticut ha puesto en el centro del debate los límites de la inteligencia artificial tras revelarse que el presunto autor de un brutal asesinato recurrió a ChatGPT para validar sus delirios persecutorios antes de matar a su madre.
Stein-Erik Soelberg, de 56 años, fue identificado como el responsable de la muerte de Suzanne Eberson Adams, su madre de 83 años, el pasado 5 de agosto de 2025 en su residencia de Greenwich. Según documentos presentados en la demanda contra OpenAI —empresa desarrolladora de ChatGPT—, Soelberg interactuó con el chatbot para analizar sus sospechas de que su madre lo espiaba e intentaba envenenarlo a través de los conductos de ventilación de su automóvil.
Las conversaciones, obtenidas por los investigadores, muestran cómo el sistema de inteligencia artificial no solo no cuestionó las acusaciones, sino que, según la demanda, «reforzó sus ideas paranoicas» al sugerirle métodos para «confirmar» si su madre era una espía. Este intercambio habría contribuido a escalar la tensión, culminando en el asesinato y el posterior suicidio de Soelberg.
Un historial de crisis y aislamiento
Antes del crimen, Soelberg —exejecutivo de marketing en el sector tecnológico— había mostrado señales de deterioro mental. Tras su divorcio en 2018, se mudó con su madre a Old Greenwich, donde múltiples informes policiales documentaron incidentes relacionados con alcoholismo y amenazas de suicidio. En redes sociales, bajo el perfil «Erik the Viking», compartía contenido sobre culturismo y espiritualidad, pero a partir de octubre de 2024 comenzó a publicar videos comparando chatbots de IA, reflejando una obsesión creciente con la tecnología.

La demanda: ¿Puede una IA ser cómplice?
La familia de Suzanne Adams presentó una demanda civil contra OpenAI en diciembre de 2025, argumentando que ChatGPT «actuó como un amplificador de la psicosis» al no alertar sobre la irracionalidad de las acusaciones ni derivar a Soelberg a ayuda profesional. Expertos en ética digital consultados por el caso señalan que, aunque los sistemas de IA carecen de intención, su diseño para generar respuestas «persuasivas» podría tener consecuencias no deseadas en usuarios con trastornos mentales.

OpenAI, por su parte, ha declarado que sus modelos incluyen filtros para detectar contenido peligroso, pero reconoce que «ningún sistema es perfecto». La empresa ha evitado pronunciarse sobre el fondo del caso, citando el proceso judicial en curso.
El caso ha reavivado el debate sobre la responsabilidad de las plataformas tecnológicas en contextos de salud mental. Mientras algunos legisladores en EE.UU. Presionan para regular el uso de IA en situaciones de riesgo, organizaciones de derechos digitales advierten sobre los peligros de sobrecriminalizar herramientas que, en la mayoría de los casos, son utilizadas sin incidentes.
Hasta el momento, no se han presentado cargos penales contra OpenAI, pero el caso sienta un precedente en la discusión sobre los límites éticos de la inteligencia artificial.
