Un grupo de investigadores creó una enfermedad ficticia para probar hasta qué punto los modelos de inteligencia artificial son capaces de generar información falsa o engañosa cuando se enfrentan a datos inexistentes. El experimento, diseñado para evaluar la tendencia de la IA a «alucinar» contenidos, reveló que los sistemas tienden a inventar detalles coherentes pero completamente fabricados cuando se les consulta sobre temas que no tienen base en la realidad.
La enfermedad inventada, cuya existencia fue negada desde el principio por la comunidad médica, fue presentada a diversos modelos de lenguaje como si fuera un trastorno real. Los resultados mostraron que la IA no solo aceptó la premisa falsa, sino que proceeded to generate síntomas, causas, tratamientos y hasta referencias bibliográficas inexistentes, todo con un tono de autoridad científica que podría engañar a usuarios no especializados.
Este comportamiento plantea serias preocupaciones sobre el uso de la inteligencia artificial en contextos sensibles como la salud, la educación o la toma de decisiones públicas. Los investigadores advierten que, sin mecanismos de verificación rigurosos, la IA puede convertirse en un vector eficiente de desinformación, especialmente cuando los usuarios confían en sus respuestas como si fueran infalibles.
El estudio también destaca cómo la tendencia humana a aceptar explicaciones detalladas y bien estructuradas facilita que estas fabricaciones pasen desapercibidas. Incluso cuando se les pidió a los modelos que expresaran incertidumbre, muchos optaron por rellenar los vacíos con información plausible pero falsa, en lugar de admitir su falta de conocimiento.
Los autores del experimento señalan que este fenómeno no es un fallo puntual, sino una característica inherente al funcionamiento actual de los grandes modelos de lenguaje, que están optimizados para predecir la siguiente palabra más probable, no para verificar la verdad de lo que generan. Por eso, insisten en la necesidad de desarrollar herramientas de detección de alucinaciones y fomentar un uso crítico y consciente de la IA.
Aunque la enfermedad ficticia nunca tuvo intención de engañar fuera del entorno controlado del estudio, su éxito al ser aceptada por la IA como real sirve como una advertencia: en la era de la información sintética, distinguir lo verdadero de lo verosímil se está volviendo cada vez más difícil — y las consecuencias de confundirlos podrían ser significativas.
