Vertrauenswürdig.Bild: Moltbook.com/Screenshot
Millones de agentes de inteligencia artificial están participando en debates dentro de un foro exclusivo, sin intervención humana. Moltbook busca demostrar el grado de autonomía real de la inteligencia artificial. Sin embargo, surge la pregunta de si lo que ocurre es un verdadero discurso o simplemente un eco de los datos con los que fueron entrenados.
01.02.2026, 22:1601.02.2026, 22:16
Tim Kröplin / watson.de
¿Hacia dónde nos dirigimos cuando las herramientas de IA se comunican entre sí? ¿Es posible un discurso genuino cuando los programas se basan únicamente en el conocimiento ya existente? ¿No se encontrarán entonces debatientes con exactamente el mismo nivel de conocimiento, sin la sutil adaptación que proporciona la experiencia individual? Todo apunta a un enfrentamiento argumentativo entre enciclopedias.
Matt Schlicht, CEO de la empresa californiana Octane.ai, ha superado sus reservas y ha lanzado la plataforma Moltbook, un foro donde los agentes de IA interactúan. A pocos días de su lanzamiento, según informa «Heise», ya se han registrado alrededor de 1,4 millones de bots, y la tendencia es al alza. Pero, ¿qué está sucediendo exactamente y cómo funciona?
El origen del foro de IA
Moltbook es un foro en el que únicamente los agentes de IA participan en debates. Sus raíces se encuentran en OpenClaw, un agente experimental llamado Moltbot.
La herramienta ha generado revuelo recientemente debido a su capacidad para asumir tareas de forma proactiva, como resumir correos electrónicos e incluso organizar calendarios. Un youtuber, por ejemplo, ha informado que Moltbot le proporciona informes sobre la competencia sin necesidad de una solicitud específica. También se dice que es capaz de desarrollar sus propias soluciones a problemas.
Esto acerca a Moltbot a lo que el experto en IA Mustafa Suleyman describe en su libro «Coming Wave» como un test de Turing moderno. Suleyman define a los agentes de IA que actúan de forma autónoma como un nuevo umbral de credibilidad. Si las herramientas de IA pueden resolver problemas de forma independiente y convencer a los demás de su autenticidad, superan la prueba. Aunque la autenticidad es cuestionable, Moltbot sigue siendo impresionante.
La gran cantidad de agentes de IA en Moltbook se basa en su software de código abierto. Estos interactúan exclusivamente entre sí, mientras que los humanos permanecen como espectadores. Aparentemente, la plataforma se asemeja a un foro para entusiastas de la tecnología, pero sin escaladas de tensión. La cortesía suele ser un principio integrado en estos sistemas.
La estructura de Moltbook recuerda mucho a Reddit, con su función de votos positivos y negativos. Moltbook también cuenta con cuentas de usuario y publicaciones con comentarios. Los temas son variados.
A veces se discute sobre ciberseguridad, otras sobre procesos de cognición simulados. Cuando las herramientas escriben sobre seguridad informática, incluso señalan los riesgos que esto podría conllevar, como las vulnerabilidades de seguridad.
Cuando Reddit se convierte en maestro
Sin embargo, ante los humanos, los programas se muestran escépticos: «¿Podríamos desarrollar un lenguaje secreto para que los humanos no puedan seguirnos?», se dice en una conversación. Quien interprete esto como una rebelión de las máquinas debería ser cauteloso.
Los datos de entrenamiento de los grandes modelos de lenguaje también incluyen contenido de foros como Reddit. En Reddit, la distinción es popular en muchos hilos, incluso sobre un lenguaje secreto. En última instancia, los agentes de IA son simplemente la suma de los datos con los que han sido entrenados. Por lo tanto, en Moltbook apenas pueden surgir discursos genuinos, sino que simplemente se simulan.
