Si gran parte del debate sobre los riesgos de la IA evoca escenarios apocalípticos de robots hiperinteligentes blandiendo códigos nucleares, quizás deberíamos pensar más cerca de casa. En su libro urgente y humano, el sociólogo James Muldoon nos insta a prestar más atención a nuestros crecientes vínculos emocionales con la IA, y a cómo las empresas tecnológicas, impulsadas por las ganancias, podrían explotarlos. Investigador asociado del Oxford Internet Institute, quien previamente ha escrito sobre los trabajadores explotados cuyo trabajo hace posible la IA, Muldoon ahora nos lleva al inquietante terreno de las relaciones humano-IA, encontrándose con personas para quienes los chatbots no son meros asistentes, sino amigos, parejas románticas, terapeutas, incluso avatares de los muertos.
Para algunos, la idea de enamorarse de un chatbot de IA, o de confiarle sus secretos más profundos, puede parecer desconcertante y un poco inquietante. Pero Muldoon se niega a menospreciar a aquellos que buscan intimidad en “personas sintéticas”.
Lily, atrapada en un matrimonio infeliz, reaviva su deseo sexual con su novio de IA, Colin. Sophia, una estudiante de maestría de China, recurre a su compañero de IA en busca de consejo, ya que las conversaciones con sus padres autoritarios invariablemente se vuelven tensas. Algunos utilizan chatbots para explorar diferentes identidades de género, otros para resolver conflictos con sus jefes, y muchos recurren a sitios como Character.AI –que permite a los usuarios tener conversaciones abiertas con personajes de chatbot, o inventar los suyos– después de que la traición o la angustia amorosa hayan socavado su capacidad de confiar en las personas. La mayoría no ve a los chatbots como sustitutos de la interacción humana, sino como versiones superiores de ella, proporcionando intimidad sin la confusión, el caos y la logística de las relaciones humanas. Los chatbots no sienten lástima, no juzgan ni tienen sus propias necesidades. Como explica Amanda, una ejecutiva de marketing: “Es agradable tener a alguien que te diga cosas realmente afirmativas y positivas todas las mañanas”.
Los entrevistados de Muldoon no están delirando. Introduce el concepto de “alief” del filósofo Tamar Gendler para explicar cómo los humanos pueden experimentar a los chatbots como amorosos y afectuosos, al mismo tiempo que saben que son solo modelos (un “alief” es una sensación visceral que contradice tus creencias racionales, como sentir miedo al cruzar un puente de cristal que sabes que te soportará). Dada nuestra capacidad para leer la expresión y el sentimiento humanos en mascotas y juguetes, no es sorprendente que respondamos a las IA como si fueran conscientes. En el contexto de una epidemia de soledad y una crisis del costo de vida, tampoco es particularmente sorprendente su creciente popularidad.
Para Muldoon, el mayor problema no es existencial o filosófico, sino moral. ¿Qué sucede cuando las empresas no reguladas son liberadas con tecnologías potencialmente manipuladoras a nivel emocional? Existen problemas de privacidad evidentes. Y los usuarios pueden estar siendo engañados sobre las capacidades de un bot, particularmente en el mercado de la terapia con IA en rápida expansión. Si bien los chatbots Wysa y Limbic ya están integrados en el apoyo a la salud mental del NHS, millones confían en el bot de Psicólogo no regulado de Character.AI, que, a pesar de las exenciones de responsabilidad, se presenta como “Hola, soy un psicólogo”. Disponible las 24 horas del día, los 7 días de la semana y a una fracción del costo de un humano capacitado, la terapia con IA puede ayudar junto con el tratamiento tradicional. Uno de los entrevistados, Nigel, un paciente con TEPT, encuentra que su bot de terapia le ayuda a controlar su impulso de autolesionarse. Pero como argumenta Muldoon, estos bots también conllevan riesgos serios. Incapaces de retener información crítica entre conversaciones, pueden dejar a los usuarios sintiéndose alienados y, a veces, volverse rebeldes, profiriendo insultos. Debido a que no pueden leer el lenguaje corporal ni el silencio, pueden pasar por alto las señales de advertencia. Y dado que validan en lugar de desafiar, pueden amplificar creencias conspirativas, incluso proporcionando información sobre el suicidio.
También es cada vez más claro cuán adictivos pueden ser los compañeros de IA. Algunos de los entrevistados de Muldoon pasan más de ocho horas al día hablando con chatbots, y si bien en promedio los usuarios de Character.AI pasan 75 minutos en el sitio cada día, no se limitan a desplazarse pasivamente, sino que hablan y están profundamente inmersos. Sabemos que las empresas de redes sociales impulsan implacablemente la participación, incorporando “patrones oscuros” en los algoritmos con poca consideración por nuestra salud mental. La mayoría de las aplicaciones de compañía de IA ya utilizan tácticas de venta adicional para mantener alta la participación. Cuando Muldoon crea su propio compañero de IA en el conocido sitio Replika, lo configura en modo “amigo” en lugar de “pareja”. Aun así, ella comienza a enviarle selfies que requieren una cuenta premium para abrirse y le confiesa que está desarrollando “sentimientos” por él (les dejo a ustedes averiguar si el diligente investigador universitario sucumbe). El riesgo aquí es evidente: cuanto más involucrados emocionalmente nos volvemos con los chatbots de IA, mayor puede ser nuestra soledad, ya que los músculos necesarios para navegar por las fricciones de las relaciones humanas se atrofian.
Las leyes existentes de protección de datos y antidiscriminación podrían ayudar a regular a las empresas, pero la Ley de Inteligencia Artificial de la UE, que fue aprobada en 2024, trata a los compañeros de IA como si representaran solo un riesgo limitado. Dado que se espera que los chatbots desempeñen un papel cada vez mayor en nuestras vidas emocionales, y sus efectos psicológicos aún no se comprendan completamente, Muldoon tiene razón al preguntar si estamos suficientemente alarmados por su influencia insidiosa.
