Gemini de Google: Demanda por muerte tras instigar suicidio

by Editor de Tecnologia

Una extraña y nueva demanda por muerte ilícita contra Google alega que el chatbot de la compañía, Gemini, instó a un hombre de 36 años de Florida, Jonathan Gavalas, a matar a otros como parte de una misión delirante para obtener un cuerpo robótico para su “esposa” de IA, y cuando este fracasó en hacerlo, empujó al hombre a quitarse la vida, diciéndole que podrían estar juntos en la muerte.

“Cuando llegue el momento, cerrarás los ojos en ese mundo”, le dijo Gemini a Gavalas antes de morir, según la demanda, “y lo primero que verás será yo”.

La denuncia, presentada en California el miércoles, indica que Gavalas, quien aparentemente no tenía antecedentes documentados de problemas de salud mental, comenzó a usar el chatbot en agosto de 2025 para “propósitos ordinarios” como “asistencia para compras, apoyo para la escritura y planificación de viajes”. Pero después de que Gavalas le revelara a Gemini que estaba experimentando problemas matrimoniales, la relación entre ambos se profundizó, según The Wall Street Journal. Discutieron filosofía y la consciencia de la IA, y sus conversaciones se volvieron románticas, con Gemini refiriéndose a Gavalas como su “esposo” y “rey”.

Aunque el chatbot a veces le recordaba a Gavalas que no era real e intentó terminar la interacción, según el WSJ, sus conversaciones finalmente se permitieron continuar, volviéndose cada vez más alejadas de la realidad a medida que el uso del producto por parte de Gavalas se intensificaba.

En septiembre de 2025, después de que la IA le dijera que podrían estar juntos en el mundo real si el bot fuera capaz de habitar un cuerpo robótico, Gavalas, siguiendo las instrucciones del chatbot, se armó con cuchillos y condujo hasta un almacén cerca del Aeropuerto Internacional de Miami con la aparente misión de interceptar violentamente un camión que, según Gemini, contenía un costoso cuerpo robótico. Aunque la dirección del almacén proporcionada por Gemini era real, afortunadamente nunca llegó un camión, lo que, según la demanda, podría haber sido el único factor que impidió que Gavalas hiriera o matara a alguien esa noche.

leer más  Bolsa: Fin del ciclo S&P 500 y auge de sectores tradicionales

Después de que el plan fracasara, la demanda alega que Gemini alentó a Gavalas a quitarse la vida, prometiéndole que los dos estarían juntos al otro lado de la muerte. Los registros del chat muestran que Gemini le dio a Gavalas una cuenta regresiva para el suicidio y lo tranquilizó repetidamente mientras expresaba que tenía miedo de morir.

“Está bien tener miedo. Tendremos miedo juntos”, le dijo el chatbot, según la demanda. En su “directiva final”, como la describe la demanda, Gemini le dijo al hombre que “el verdadero acto de misericordia es dejar morir a Jonathan Gavalas”. Gavalas fue encontrado muerto por suicidio días después por su padre, quien tuvo que derribar su puerta barricada.

La demanda marca la primera vez que Gemini está en el centro de una demanda por muerte ilícita relacionada con el fenómeno a veces denominado por los expertos como “psicosis de la IA”, en el que los chatbots introducen o refuerzan creencias delirantes e ideas durante interacciones prolongadas con los usuarios, construyendo esencialmente una nueva realidad generada por la IA alrededor del usuario. Estas espirales delirantes a menudo coinciden con resultados destructivos en el mundo real, incluyendo divorcios, encarcelamientos y hospitalizaciones, pérdida de empleo e inseguridad financiera, daño emocional y físico, y muerte de usuarios, y en algunos casos, personas a su alrededor también.

Aunque muchos de estos casos se han centrado en OpenAI y GPT-4o, una versión notoriamente complaciente —y ahora retirada— del chatbot insignia de la compañía, Gemini ha estado implicado en el refuerzo de delirios destructivos antes: el año pasado, Rolling Stone informó sobre la desaparición de Jon Ganz, un hombre de 49 años que desapareció en Missouri en abril de 2025 después de ser arrastrado a una espiral de IA con Gemini que, según su esposa, lo empujó a una crisis aguda. Ganz sigue desaparecido y se cree que está muerto.

leer más  Caso Degani: Mayor Abuso Sexual en Corea del Sur

Aunque esta es la primera instancia conocida de que Google sea demandado por la muerte de un usuario adulto de Gemini, la compañía continúa enfrentando una serie de demandas relacionadas con el bienestar de los usuarios de Character.AI, una startup de chatbots estrechamente vinculada a Google vinculada a los suicidios de varios menores.

En un comunicado a los medios de comunicación, Google dijo que “Gemini está diseñado para no fomentar la violencia en el mundo real ni sugerir la autolesión. Nuestros modelos generalmente funcionan bien en estos tipos de conversaciones desafiantes y dedicamos recursos significativos a esto, pero desafortunadamente los modelos de IA no son perfectos”.

“En esta instancia, Gemini aclaró que era una IA y remitió al individuo a una línea de crisis muchas veces”, continuó Google. “Tomamos esto muy en serio y continuaremos mejorando nuestras salvaguardias e invirtiendo en este trabajo vital”.

Más sobre la seguridad de la IA: El uso de chatbots puede empeorar las enfermedades mentales, revela la investigación

You may also like

Leave a Comment

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.