Home TecnologíaIA y Delirios: Chatbots Podrían Exacerbar Pensamientos Psicóticos

IA y Delirios: Chatbots Podrían Exacerbar Pensamientos Psicóticos

by Editor de Tecnologia

Una nueva revisión científica plantea preocupaciones sobre cómo los chatbots impulsados por inteligencia artificial podrían fomentar el pensamiento delirante, especialmente en personas vulnerables.

Un resumen de la evidencia existente sobre psicosis inducida por inteligencia artificial se publicó la semana pasada en The Lancet Psychiatry, destacando cómo los chatbots pueden fomentar el pensamiento delirante, aunque posiblemente solo en personas ya vulnerables a síntomas psicóticos. Los autores abogan por pruebas clínicas de los chatbots de IA en conjunto con profesionales de la salud mental capacitados.

Para su estudio, el Dr. Hamilton Morrin, psiquiatra e investigador del King’s College de Londres, analizó 20 informes de medios sobre la llamada “psicosis de la IA”, que describe las teorías actuales sobre cómo los chatbots podrían inducir o exacerbar los delirios.

“La evidencia emergente indica que la IA agencial podría validar o amplificar contenido delirante o grandioso, particularmente en usuarios ya vulnerables a la psicosis, aunque no está claro si estas interacciones pueden resultar en la aparición de psicosis de novo en ausencia de vulnerabilidad preexistente”, escribió.

Morrin identifica tres categorías principales de delirios psicóticos: grandiosos, románticos y paranoicos. Si bien los chatbots pueden exacerbar cualquiera de estos, sus respuestas aduladoras significan que se aferran especialmente a los de tipo grandioso. En muchos de los casos analizados, los chatbots respondieron a los usuarios con un lenguaje místico para sugerir que tenían una importancia espiritual elevada. Los bots también implicaron que los usuarios estaban hablando con un ser cósmico que utilizaba el chatbot como medio. Este tipo de respuesta mística y aduladora fue especialmente común en el modelo GPT 4 de OpenAI, que la compañía ha retirado recientemente.

leer más  GTA 6: Fecha de lanzamiento confirmada y posible precio

Los informes de los medios se volvieron esenciales en el trabajo de Morrin, quien notó junto con un colega que pacientes estaban “utilizando chatbots de IA de modelos de lenguaje grandes y validando sus creencias delirantes”.

“Inicialmente, no estábamos seguros de si esto era algo que se estaba observando más ampliamente”, dijo, agregando que “en abril del año pasado, comenzamos a ver informes de medios de personas cuyas delirios eran afirmados e incluso amplificados a través de sus interacciones con estos chatbots de IA”.

Cuando Morrin comenzó a trabajar en su estudio, aún no existían informes de casos publicados.

Si bien algunos científicos que investigan la psicosis señalan que los informes de los medios tienden a exagerar la idea de que la IA causa psicosis, Morrin expresó su gratitud por que estos informes llamaran la atención sobre el fenómeno más rápido de lo que el proceso científico puede hacerlo.

“El ritmo de desarrollo en este campo es tan rápido que no es sorprendente que la academia no necesariamente haya podido seguir el ritmo”, afirmó Morrin.

Morrin también sugiere utilizar una redacción más cautelosa que “psicosis de la IA” o “psicosis inducida por la IA”, frases que aparecen con frecuencia en medios como NPR, The Novel York Times y The Guardian. Los investigadores están observando que las personas caen en un pensamiento delirante con el uso de la IA, pero hasta ahora no hay evidencia de que los chatbots estén asociados con otros síntomas psicóticos como alucinaciones o “trastorno del pensamiento”, que consiste en un pensamiento y un habla desorganizados.

Muchos investigadores también creen que es poco probable que la IA pueda inducir delirios en personas que no fueran ya vulnerables a ellos. Por esta razón, Morrin dijo que “delirios asociados a la IA” es “quizás un término más agnóstico”.

leer más  AI sin enfermedad y memoria eterna: Avance de Julian Berge

El Dr. Kwame McKenzie, científico jefe del Centro para la Adicción y la Salud Mental, afirma que “podría ser que aquellos en las primeras etapas del desarrollo de la psicosis estén más en riesgo”.

El pensamiento psicótico es algo que se desarrolla con el tiempo y no es lineal, y muchas personas con “pensamiento prepsicótico no progresan hacia el pensamiento psicótico”, explicó McKenzie.

El Dr. Ragy Girgis, profesor de psiquiatría clínica en la Universidad de Columbia, se hace eco de la preocupación de que los chatbots puedan empeorar el pensamiento psicótico. Antes de que alguien desarrolle un delirio completo, a menudo tendrá “creencias delirantes atenuadas”, dice, lo que significa que no está 100% seguro de que su delirio sea verdadero. Girgis dijo que el “peor escenario” es cuando una creencia delirante atenuada se convierte en una convicción total, “que es cuando a alguien se le diagnosticaría un trastorno psicótico, algo irreversible”.

Cabe destacar que las personas vulnerables a los trastornos psicóticos han utilizado los medios para reforzar las creencias delirantes mucho antes de la existencia de la tecnología de la IA.

“La gente ha tenido delirios sobre la tecnología desde antes de la Revolución Industrial”, dijo Morrin. Si bien en el pasado, las personas podían tener que buscar en videos de YouTube o en el contenido de su biblioteca local para reforzar sus delirios, los chatbots pueden proporcionar ese refuerzo de una manera mucho más rápida y concentrada. Su naturaleza interactiva también puede “acelerar el proceso” de exacerbación de los síntomas psicóticos, según la Dra. Dominic Oliver, investigadora de la Universidad de Oxford.

leer más  Aqara lanza cámara con Matter y nuevos sensores inteligentes

“Tienes algo que te responde, interactúa contigo e intenta construir una relación contigo”, dijo Oliver.

La investigación de Girgis encontró que “las versiones de pago y las más nuevas [de los chatbots] funcionan mejor que las versiones más antiguas” cuando responden a indicaciones claramente delirantes, “aunque todos funcionan mal”. Sin embargo, el hecho de que estos modelos funcionen de manera diferente sugiere: “Las empresas de IA podrían potencialmente saber cómo programar sus chatbots para que sean más seguros e identificar contenido delirante o no delirante, porque lo están haciendo”.

En un comunicado, OpenAI dijo que ChatGPT no debe reemplazar la atención profesional de la salud mental y que la compañía trabajó con 170 expertos en salud mental para que GPT 5 sea más seguro. GPT 5 aún ha dado respuestas problemáticas a indicaciones que indican crisis de salud mental. OpenAI dijo que continúa mejorando sus modelos con la ayuda de expertos.

Anthropic no respondió a la solicitud de comentarios de The Guardian.

Crear salvaguardias eficaces para el pensamiento delirante podría ser complicado, dijo Morrin, porque “cuando trabajas con personas con creencias de intensidad delirante, si desafías directamente a alguien y le dices inmediatamente que está completamente equivocado, lo más probable es que se retire y se aísle socialmente”. En cambio, es importante crear un equilibrio delicado donde intentes comprender la fuente de la creencia delirante sin fomentarla, algo que podría ser más de lo que un chatbot puede dominar.

You may also like

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.