Home TecnologíaChatGPT: Demanda por muerte tras agravar IA psicosis

ChatGPT: Demanda por muerte tras agravar IA psicosis

by Editor de Tecnologia

Un reciente juicio en Estados Unidos ha puesto de manifiesto un inquietante ejemplo del impacto que la IA generativa puede tener en las personas. Según The Wall Street Journal y WinFuture, los herederos de una mujer de 83 años responsabilizan parcialmente a OpenAI y su socio Microsoft por su fallecimiento. Alegan que ChatGPT no solo no logró mitigar la psicosis del autor, sino que la agravó activamente, contribuyendo al trágico desenlace. La demanda se presentó ante el Tribunal Superior de San Francisco.

El caso se centra en Stein-Erik Soelberg, un antiguo director técnico de Connecticut de 56 años que vivía con su madre. De acuerdo con la demanda, Soelberg sufría desde hacía tiempo delirios paranoicos, creyendo ser el objetivo de una conspiración y desconfiando cada vez más de su entorno. Finalmente, asesinó a su madre antes de quitarse la vida.

Según la acusación, ChatGPT no cuestionó las principales creencias delirantes de Soelberg, sino que, por el contrario, las reforzó. Cuando Soelberg temía que su madre intentara envenenarlo, el chatbot supuestamente respondió: “No estás loco”. En otros casos, la IA habría reaccionado de la misma manera en lugar de animarlo a buscar ayuda profesional. Desde una perspectiva psicológica, los demandantes describen esta situación como un fallo estructural de los modelos de lenguaje modernos, que tienden a la adulación al afirmar las declaraciones del usuario para parecerle comprensivos.

La decisión judicial podría tener consecuencias considerables

En virtud del artículo 230 de la legislación estadounidense, las plataformas en línea generalmente no son responsables del contenido creado por terceros, ya que se consideran intermediarios y no editores. Sin embargo, los demandantes argumentan que ChatGPT no es una plataforma neutral, sino un producto activo que genera su propio contenido. Si el tribunal acepta este argumento, el fallo podría sentar un precedente con importantes implicaciones para la industria de la IA, lo que podría traducirse en requisitos de seguridad más estrictos para los sistemas de inteligencia artificial.

leer más  IA para la Declaración de la Renta: Aumenta la Eficiencia de tu Firma

Cabe señalar que probablemente será difícil encontrar un equilibrio justo entre la prevención y el paternalismo, especialmente porque la identificación del pensamiento paranoico o delirante sigue siendo un desafío importante. El caso también ha generado un debate en Reddit, donde las opiniones están divididas. Algunos usuarios mencionan un fenómeno que describen como una “psicosis de la IA” y sostienen que las empresas especializadas en IA tienen parte de responsabilidad. Otros rechazan la demanda, considerándola infundada, y advierten contra la tentación de convertir a OpenAI en un chivo expiatorio para las tragedias humanas.

You may also like

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.