Existe una creciente preocupación en torno a los peligros de las relaciones humano-IA. Informes de suicidios y autolesiones vinculados a interacciones con chatbots han acaparado titulares, comprensiblemente. La frase “psicosis de la IA” se ha utilizado para describir la situación de personas que experimentan delirios, paranoia o disociación después de conversar con modelos de lenguaje grandes (LLM). Nuestra ansiedad colectiva se ha visto exacerbada por estudios que muestran que los jóvenes adoptan cada vez más la idea de las relaciones con la IA; la mitad de los adolescentes chatean con un compañero de IA al menos varias veces al mes, y uno de cada tres encuentra que las conversaciones con la IA son “tan satisfactorias o más que las que tienen con amigos de la vida real”.
Pero es necesario moderar el pánico. Los peligros son reales, pero también lo son los beneficios potenciales. De hecho, se puede argumentar que, dependiendo de lo que revelen futuras investigaciones científicas, las relaciones con la IA podrían ser realmente beneficiosas para la humanidad.
Consideremos lo omnipresentes que siempre han sido las relaciones no humanas para nuestra especie. Tenemos una larga historia de interacciones saludables con seres no humanos, ya sean mascotas, peluches u objetos o máquinas queridas; piense en la persona en su vida que está completamente obsesionada con su coche, hasta el punto de ponerle un nombre. En el caso de las mascotas, estas son relaciones reales en la medida en que nuestros gatos y perros entienden que están en una relación con nosotros. Pero las relaciones parasociales unilaterales que tenemos con peluches o coches ocurren sin que estos seres sepan que existimos. Solo en los casos más raros estas relaciones degeneran en algo patológico. La parasocialidad es, en su mayor parte, normal y saludable.
Sin embargo, hay algo inquietante en las relaciones con la IA. Debido a que son usuarios fluidos del lenguaje, los LLM generan la inquietante sensación de que tienen pensamientos, sentimientos e intenciones similares a los humanos. También generan respuestas serviles que refuerzan nuestros puntos de vista, rara vez desafían nuestro pensamiento. Esta combinación puede fácilmente llevar a las personas por un camino de delirio. Esto no ocurre cuando interactuamos con gatos, perros u objetos inanimados. Pero la pregunta sigue siendo: incluso en los casos en que las personas no pueden ver a través de la ilusión de que las IA son personas reales que realmente se preocupan por nosotros, ¿es eso siempre un problema?
Consideremos la soledad: una de cada seis personas en este planeta la experimenta, y está asociada con un aumento del 26% en la mortalidad prematura; el equivalente a fumar 15 cigarrillos al día. Están surgiendo investigaciones que sugieren que los compañeros de IA son eficaces para reducir los sentimientos de soledad, y no solo como una forma de distracción, sino como resultado de la relación parasocial en sí misma. Para muchas personas, un chatbot de IA es la única opción de amistad disponible, por hueca que parezca. Como explicó recientemente la periodista Sangita Lal en un informe sobre aquellos que recurren a la IA para encontrar compañía, no debemos juzgar tan rápido. “Si no entiendes por qué los suscriptores quieren, buscan y necesitan esta conexión”, dijo Lal, “tienes la suerte de no haber experimentado la soledad”.
Cabe señalar que el auge de las nuevas tecnologías y las redes sociales ha jugado un papel en el aumento de la epidemia de soledad. Por eso Mark Zuckerberg recibió críticas por su entusiasta respaldo a la IA como solución a un problema del que podría ser parcialmente responsable. Pero si la realidad es que ayuda, esto no puede descartarse de plano.
También hay investigaciones que demuestran que la IA puede utilizarse como una herramienta eficaz para la psicoterapia. En un estudio, los pacientes que conversaron con un chatbot de terapia impulsado por IA mostraron una reducción del 30% en los síntomas de ansiedad. No tan eficaz como los terapeutas humanos, que generaron una reducción del 45%, pero aún así mejor que nada. Este argumento utilitario merece ser considerado; hay millones de personas que, por cualquier motivo, no pueden acceder a un terapeuta. Y en esos casos, recurrir a una IA probablemente sea preferible a no buscar ninguna ayuda.
Pero un estudio no es una prueba de nada. Y ahí radica el problema. Estamos en las primeras etapas de la investigación sobre los beneficios o perjuicios potenciales de la compañía de la IA. Es fácil centrarse en los pocos estudios que respaldan nuestras ideas preconcebidas sobre los peligros o beneficios de esta tecnología.
Es en este vacío de investigación donde se revelan los verdaderos peligros de la IA. La mayoría de las entidades que implementan compañeros de IA son empresas con fines de lucro. Y si hay algo que sabemos sobre las empresas con fines de lucro, es que están ansiosas por evitar la regulación y rechazar las pruebas que podrían perjudicar sus resultados. Están incentivadas a minimizar los riesgos, seleccionar las pruebas y alardear solo de los beneficios.
La emergencia de la IA no es diferente al descubrimiento de las propiedades analgésicas del opio; si es aprovechada por partes responsables con el objetivo de aliviar el dolor y el sufrimiento, tanto la IA como los opioides pueden ser una herramienta legítima para la curación. Pero si los actores maliciosos explotan sus propiedades adictivas para enriquecerse, el resultado es dependencia o muerte.
Sigo siendo optimista de que hay un lugar para la compañía de la IA. Pero solo si está respaldada por una ciencia sólida y desplegada por organizaciones que existen para el bien público. Las IA deben evitar el problema de la adulación que lleva a las personas vulnerables al delirio. Esto solo se puede lograr si están explícitamente capacitadas para hacerlo, incluso si eso las hace menos atractivas como posibles compañeras; una noción que es anatema para las empresas que quieren que pagues una suscripción mensual, sin la cual pierdes el acceso a tu “amigo”. También deben estar diseñadas para ayudar al usuario a desarrollar las habilidades sociales que necesita para interactuar con humanos reales en el mundo real.
El objetivo final de los compañeros de IA debería ser volverse obsoletos. No importa cuán útiles puedan ser para llenar los vacíos en el acceso a la terapia o aliviar la soledad, siempre será mejor hablar con un ser humano real.
Justin Gregg es biólogo y autor de Humanish (Oneworld).
Lecturas adicionales
Code Dependent: Living in the Shadow of AI por Madhumita Murgia (Picador, £20)
The Coming Wave: AI, Power and Our Future por Mustafa Suleyman (Vintage, £10.99)
Supremacy: AI, ChatGPT and the Race That Will Change the World por Parmy Olson (Macmillan, £10.99)
