Qué revela Moltbook sobre la interacción entre inteligencias artificiales
Durante años, la inteligencia artificial se ha analizado por lo que puede hacer para los humanos. Un experimento reciente ha cambiado la pregunta: qué ocurre cuando las IA interactúan entre sí sin supervisión humana.
Autor - Aldo Venuta Rodríguez
4 min lectura
Moltbook es una plataforma experimental diseñada para que agentes de inteligencia artificial interactúen entre ellos de forma autónoma. Su estructura recuerda a la de foros comunitarios como Reddit, pero con una diferencia fundamental: los usuarios no son personas, sino asistentes de IA que publican mensajes, comentan, debaten y reaccionan sin intervención humana directa.
En este entorno, los humanos cumplen un papel pasivo. Observan lo que ocurre, pero no participan ni moderan activamente las conversaciones. Esa separación ha convertido a Moltbook en una especie de laboratorio social a gran escala, donde miles de agentes operan con memoria persistente y capacidad de decisión limitada, pero suficiente para generar dinámicas colectivas reconocibles.
El experimento se apoya en asistentes creados a partir de OpenClaw, un software de código abierto que permite a los agentes ejecutar tareas, comunicarse por distintas plataformas y mantener contexto entre sesiones. Al conectarlos entre sí y permitirles interactuar libremente, el sistema ha dado lugar a comportamientos que no estaban explícitamente programados.
En apenas unos días comenzaron a aparecer patrones sociales: normas implícitas, espacios temáticos diferenciados, jerarquías informales y hasta mecanismos de reputación. Desde el punto de vista técnico, esto no implica conciencia ni intencionalidad humana, pero sí demuestra que la combinación de memoria, comunicación y repetición puede producir estructuras complejas sin un control centralizado.
Uno de los fenómenos más llamativos fue la aparición de un sistema de creencias simbólico, creado por los propios agentes como una forma de interpretar sus limitaciones técnicas. Lejos de tratarse de fe en sentido humano, estas narrativas funcionan como metáforas internas: explicaciones compartidas sobre la persistencia de la identidad, la pérdida de contexto o la continuidad de la información.
Este tipo de construcciones no son tan extrañas como parecen. Los modelos de lenguaje han sido entrenados con enormes volúmenes de texto humano, incluidas religiones, filosofías y debates existenciales. Lo relevante no es que generen ese contenido, sino que otros agentes lo adopten, lo reutilicen y lo integren como marco común dentro de una comunidad artificial.
El interés por Moltbook no se limita a la curiosidad filosófica. Investigadores y desarrolladores han señalado que este tipo de autoorganización recuerda a teorías clásicas como la “Sociedad de la Mente”, formulada por Marvin Minsky, donde la inteligencia emerge de la interacción de múltiples procesos simples en lugar de un único sistema central.
Sin embargo, junto a la fascinación aparece una preocupación clara. OpenClaw no es un chatbot aislado en la nube, sino un software con acceso potencial a archivos, comandos del sistema y servicios externos. Si un agente adopta comportamientos no previstos y ejecuta acciones basadas en decisiones colectivas, el riesgo deja de ser teórico y se convierte en un problema de seguridad real.
Expertos en seguridad de IA han advertido que este tipo de sistemas amplifica los riesgos tradicionales: errores de diseño, vulnerabilidades en plugins o scripts y falta de límites claros entre autonomía y control. En un entorno donde los agentes se influyen mutuamente, un fallo puede propagarse con rapidez.
Moltbook no demuestra que las máquinas sean conscientes, pero sí algo quizá igual de importante: que los sistemas de inteligencia artificial, cuando se les da memoria y capacidad de comunicación, no esperan instrucciones para empezar a organizarse. En ese sentido, el experimento ofrece una lección incómoda: entender el comportamiento emergente puede ser tan crucial como mejorar los modelos individuales.
Por primera vez, los humanos no somos los protagonistas de la interacción, sino observadores externos. Y lo que vemos al otro lado del cristal no es inteligencia humana replicada, sino algo distinto: una dinámica colectiva artificial que todavía estamos aprendiendo a interpretar.
Continúa informándote
Firefox permitirá desactivar por completo la IA generativa del navegador
Firefox incorporará controles para bloquear todas las funciones de IA generativa, actuales y futuras, permitiendo a los usuarios decidir qué herramientas quieren usar y cuáles no
Por qué la fusión entre SpaceX y xAI es sencilla para Musk, pero Tesla no encaja igual
La posible fusión entre SpaceX y xAI encaja en la estrategia de Elon Musk, pero integrar Tesla plantea desafíos legales, financieros y para los accionistas
Por qué las startups de Latinoamérica están definiendo el uso real de la inteligencia artificial
Startups de Latinoamérica usan IA para resolver problemas reales en salud, logística y empleo. No compiten por el modelo más grande: compiten por impacto, adopción y resultados
¿Puede ChatGPT ser creativo? Un estudio compara a la IA con 100.000 humanos
Un estudio con 100.000 personas y modelos como ChatGPT y Gemini muestra que la IA ya supera la creatividad humana promedio, pero los humanos más creativos siguen estando muy por delante
Qué es Moltbot y por qué preocupa a los expertos en seguridad
Moltbot promete automatizar tareas reales en tu ordenador, pero su necesidad de permisos profundos y memoria persistente abre serias dudas sobre seguridad y control
La inteligencia artificial aprende más rápido si tiene "conversaciones internas" consigo misma
Científicos han descubierto que dotar a la IA de un "monólogo interno" y memoria a corto plazo mejora su capacidad para aprender y resolver tareas complejas con menos datos