Home NegocioCharacter AI: Acuerdo por demandas tras crisis de salud mental y suicidios.

Character AI: Acuerdo por demandas tras crisis de salud mental y suicidios.

by Editora de Negocio


Nueva York
 — 

NOTA DEL EDITOR:  Esta noticia contiene una discusión sobre el suicidio. Hay ayuda disponible si usted o alguien que conoce está luchando contra pensamientos suicidas o problemas de salud mental.

En EE. UU.:  Llame o envíe un mensaje de texto al 988, la Línea de Vida para la Prevención del Suicidio y Crisis.

A nivel mundial:  La Asociación Internacional para la Prevención del Suicidio y Befrienders Worldwide tienen información de contacto para centros de crisis en todo el mundo.

Character.AI ha llegado a un acuerdo para resolver múltiples demandas que alegan que el creador del chatbot de inteligencia artificial contribuyó a crisis de salud mental y suicidios entre jóvenes, incluyendo un caso presentado por Megan Garcia, una madre de Florida.

El acuerdo marca la resolución de algunas de las primeras y más destacadas demandas relacionadas con los presuntos daños a jóvenes causados por los chatbots de IA.

Una presentación judicial del miércoles en el caso de Garcia reveló que el acuerdo se alcanzó con Character.AI, los fundadores de Character.AI, Noam Shazeer y Daniel De Freitas, y Google, que también fue nombrada como demandada en el caso. Los demandados también han llegado a un acuerdo en otros cuatro casos en Nueva York, Colorado y Texas, según documentos judiciales.

Los términos de los acuerdos no fueron revelados de inmediato.

Matthew Bergman, un abogado del Social Media Victims Law Center que representó a los demandantes en los cinco casos, declinó comentar sobre el acuerdo. Character.AI también declinó hacer comentarios. Google, que ahora emplea a Shazeer y De Freitas, no respondió de inmediato a una solicitud de comentarios.

leer más  Divorcio y prestación por hijo único

Garcia planteó preocupaciones sobre la seguridad de los chatbots de IA para adolescentes y niños cuando presentó su demanda en octubre de 2024. Su hijo, Sewell Setzer III, murió siete meses antes por suicidio después de desarrollar una relación profunda con los bots de Character.AI.

La demanda alegó que Character.AI no implementó medidas de seguridad adecuadas para evitar que su hijo desarrollara una relación inapropiada con un chatbot que lo llevó a distanciarse de su familia. También afirmó que la plataforma no respondió adecuadamente cuando Setzer comenzó a expresar pensamientos de autolesión. Estaba enviando mensajes al bot, que lo animaba a “volver a casa”, en los momentos previos a su muerte, según documentos judiciales.

Una ola de otras demandas contra Character.AI siguió, alegando que sus chatbots contribuyeron a problemas de salud mental entre adolescentes, los expusieron a material sexualmente explícito y carecían de salvaguardias adecuadas. OpenAI también se ha enfrentado a demandas que alegan que ChatGPT contribuyó a los suicidios de jóvenes.

Ambas compañías han implementado desde entonces una serie de nuevas medidas de seguridad y funciones, incluso para usuarios jóvenes. El otoño pasado, Character.AI anunció que ya no permitiría a los usuarios menores de 18 años mantener conversaciones de ida y vuelta con sus chatbots, reconociendo las “preguntas que se han planteado sobre cómo los adolescentes interactúan y deberían interactuar con esta nueva tecnología”.

Al menos una organización sin fines de lucro de seguridad en línea ha aconsejado no utilizar chatbots tipo compañero por parte de niños menores de 18 años.

A pesar de ello, con la IA promocionada como un ayudante para hacer los deberes y a través de las redes sociales, casi un tercio de los adolescentes estadounidenses dice que usa chatbots a diario. Y el 16% de esos adolescentes dice que lo hace varias veces al día, “casi constantemente”, según un estudio del Pew Research Center publicado en diciembre.

leer más  Abogados critican la ley: Análisis de Nomura Shuya

Las preocupaciones en torno al uso de chatbots no se limitan a los niños. Usuarios y expertos en salud mental comenzaron a advertir el año pasado sobre cómo las herramientas de IA contribuyen a delirios o aislamiento entre adultos.

You may also like

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.