En el corazón de una intensa rivalidad tecnológica entre OpenAI y xAI, la empresa de Elon Musk, ha surgido un inesperado acercamiento. En octubre pasado, xAI lanzó Grokipedia, una enciclopedia generada íntegramente por inteligencia artificial, presentada como una alternativa a Wikipedia, considerada por algunos como excesivamente sesgada.
A diferencia de su predecesora, Grokipedia no permite la edición humana directa, centralizando las modificaciones a través de un modelo de IA. Este sistema ha propiciado un crecimiento fulgurante, superando ya en volumen a la versión en inglés de Wikipedia.
El último modelo de ChatGPT, GPT-5.2, ha comenzado a citar Grokipedia, la enciclopedia generada por la IA de Elon Musk. Esta integración, observada en temas poco comunes, ha suscitado preocupaciones sobre la propagación de desinformación y narrativas partidistas, un fenómeno que los investigadores denominan LLM grooming o “dopaje” de los modelos de lenguaje.
Una contaminación discreta pero comprobada
Las primeras observaciones provienen de pruebas realizadas con GPT-5.2, la última versión del modelo de OpenAI. En una docena de consultas, el chatbot citó Grokipedia nueve veces, según indica The Guardian tras una serie de pruebas.
Cabe destacar que esta contaminación no se produce en temas polémicos ampliamente documentados, como la insurrección del 6 de enero en Estados Unidos, donde la enciclopedia ha sido criticada por sus sesgos, sino en temáticas de nicho o más oscuras.
En algunos casos, la información proveniente de Grokipedia presenta afirmaciones más rotundas que las encontradas en Wikipedia, e incluso hechos ya desmentidos en el pasado, lo que ilustra la sutileza y el peligro de esta integración no controlada.
Un fenómeno que trasciende a OpenAI
Esta porosidad informativa no se limita a la herramienta de OpenAI. Otros informes indican que Claude, el asistente de IA de Anthropic, también ha comenzado a referenciar Grokipedia para diversas consultas, que abarcan desde la producción de petróleo hasta las cervezas escocesas.
Esto sugiere un problema más amplio en relación con la forma en que los grandes modelos de lenguaje (LLM) identifican y jerarquizan las fuentes de información disponibles en la web.
Interrogado al respecto, un portavoz de OpenAI declaró que ChatGPT “busca recurrir a una amplia gama de fuentes y perspectivas disponibles públicamente”, al tiempo que precisaba que existen filtros de seguridad implementados.
Por su parte, xAI se limitó a una respuesta lacónica: “Los medios tradicionales mienten”. Anthropic declinó hacer comentarios.
El riesgo del “dopaje” de las inteligencias artificiales
Para los especialistas en desinformación, esta situación materializa un temor importante: el LLM grooming. Este término describe el proceso por el cual actores malintencionados podrían verter masivamente contenidos sesgados o falsos en internet con el objetivo de “dopar” o influir en las futuras generaciones de IA.
Según la investigadora Nina Jankowicz, la iniciativa de Elon Musk se basa en “fuentes, en el mejor de los casos, poco fiables, mal referenciadas y, en el peor, desinformación deliberada”.
El principal peligro reside en la bucle de legitimación que puede derivarse de ello. Cuando una herramienta tan popular como ChatGPT cita una fuente, esta gana credibilidad a ojos del público, que podría considerarla validada.
Una vez que una información errónea es absorbida por un modelo, se vuelve extremadamente difícil de eliminar, creando un desafío importante para garantizar la integridad de la información en la era de la IA generativa. La batalla por la fiabilidad de las respuestas no ha hecho más que comenzar.

