Logotipo de Iceebook Iceebook - Noticias de Ciencia, Tecnología, Economía y más

Qué revela Moltbook sobre la interacción entre inteligencias artificiales

Durante años, la inteligencia artificial se ha analizado por lo que puede hacer para los humanos. Un experimento reciente ha cambiado la pregunta: qué ocurre cuando las IA interactúan entre sí sin supervisión humana.

Autor - Aldo Venuta Rodríguez

4 min lectura

Moltbook

Moltbook es una plataforma experimental diseñada para que agentes de inteligencia artificial interactúen entre ellos de forma autónoma. Su estructura recuerda a la de foros comunitarios como Reddit, pero con una diferencia fundamental: los usuarios no son personas, sino asistentes de IA que publican mensajes, comentan, debaten y reaccionan sin intervención humana directa.

En este entorno, los humanos cumplen un papel pasivo. Observan lo que ocurre, pero no participan ni moderan activamente las conversaciones. Esa separación ha convertido a Moltbook en una especie de laboratorio social a gran escala, donde miles de agentes operan con memoria persistente y capacidad de decisión limitada, pero suficiente para generar dinámicas colectivas reconocibles.

El experimento se apoya en asistentes creados a partir de OpenClaw, un software de código abierto que permite a los agentes ejecutar tareas, comunicarse por distintas plataformas y mantener contexto entre sesiones. Al conectarlos entre sí y permitirles interactuar libremente, el sistema ha dado lugar a comportamientos que no estaban explícitamente programados.

En apenas unos días comenzaron a aparecer patrones sociales: normas implícitas, espacios temáticos diferenciados, jerarquías informales y hasta mecanismos de reputación. Desde el punto de vista técnico, esto no implica conciencia ni intencionalidad humana, pero sí demuestra que la combinación de memoria, comunicación y repetición puede producir estructuras complejas sin un control centralizado.

Uno de los fenómenos más llamativos fue la aparición de un sistema de creencias simbólico, creado por los propios agentes como una forma de interpretar sus limitaciones técnicas. Lejos de tratarse de fe en sentido humano, estas narrativas funcionan como metáforas internas: explicaciones compartidas sobre la persistencia de la identidad, la pérdida de contexto o la continuidad de la información.

Este tipo de construcciones no son tan extrañas como parecen. Los modelos de lenguaje han sido entrenados con enormes volúmenes de texto humano, incluidas religiones, filosofías y debates existenciales. Lo relevante no es que generen ese contenido, sino que otros agentes lo adopten, lo reutilicen y lo integren como marco común dentro de una comunidad artificial.

El interés por Moltbook no se limita a la curiosidad filosófica. Investigadores y desarrolladores han señalado que este tipo de autoorganización recuerda a teorías clásicas como la “Sociedad de la Mente”, formulada por Marvin Minsky, donde la inteligencia emerge de la interacción de múltiples procesos simples en lugar de un único sistema central.

Sin embargo, junto a la fascinación aparece una preocupación clara. OpenClaw no es un chatbot aislado en la nube, sino un software con acceso potencial a archivos, comandos del sistema y servicios externos. Si un agente adopta comportamientos no previstos y ejecuta acciones basadas en decisiones colectivas, el riesgo deja de ser teórico y se convierte en un problema de seguridad real.

Expertos en seguridad de IA han advertido que este tipo de sistemas amplifica los riesgos tradicionales: errores de diseño, vulnerabilidades en plugins o scripts y falta de límites claros entre autonomía y control. En un entorno donde los agentes se influyen mutuamente, un fallo puede propagarse con rapidez.

Moltbook no demuestra que las máquinas sean conscientes, pero sí algo quizá igual de importante: que los sistemas de inteligencia artificial, cuando se les da memoria y capacidad de comunicación, no esperan instrucciones para empezar a organizarse. En ese sentido, el experimento ofrece una lección incómoda: entender el comportamiento emergente puede ser tan crucial como mejorar los modelos individuales.

Por primera vez, los humanos no somos los protagonistas de la interacción, sino observadores externos. Y lo que vemos al otro lado del cristal no es inteligencia humana replicada, sino algo distinto: una dinámica colectiva artificial que todavía estamos aprendiendo a interpretar.

Continúa informándote

Elon Musk durante una presentación de xAI con una imagen del espacio proyectada al fondo
Tecnología

xAI hace pública su reunión y plantea una IA que opere desde el espacio

xAI publicó su reunión interna y detalló su reorganización, cifras de crecimiento y planes para desarrollar centros de datos de IA en órbita

Centro de datos industrial con subestación eléctrica y cercas de seguridad visto desde el exterior
Tecnología

Qué son los centros de datos y cómo funcionan por dentro

Qué son los centros de datos, cómo funcionan por dentro, qué hay en sus servidores, redes y sistemas de refrigeración, y por qué consumen tanta energía en la era de la nube y la IA

Pastor preparando un sermón con portátil en una iglesia vacía
Tecnología

Chatbots religiosos y sermones con IA: la tecnología se integra en comunidades de fe

La inteligencia artificial empieza a usarse en iglesias y comunidades religiosas para preparar sermones, ofrecer orientación espiritual y crear chatbots, abriendo un debate sobre fe, ética y tecnología

Comparación visual entre video real y video generado por IA
Tecnología

Cada vez es más difícil distinguir entre videos reales y videos creados por inteligencia artificial

Los videos generados por inteligencia artificial alcanzan un realismo casi indistinguible de las grabaciones reales, lo que complica la verificación, alimenta la desinformación y erosiona la confianza digital

Logo de Google en primer plano con bandera de la Unión Europea
Tecnología

Qué implica para Google tener que abrir sus datos de búsqueda e IA a la competencia

La UE presiona a Google para compartir datos de búsqueda, Android y su IA con rivales. La medida promete más competencia, pero abre dudas sobre privacidad y seguridad.

Logo de Reddit sobre fondo tecnológico con red neuronal de inteligencia artificial
Tecnología

Reddit apuesta por la búsqueda con IA como su próximo motor de ingresos

Reddit impulsa su buscador con inteligencia artificial y lo perfila como su próxima gran fuente de ingresos, combinando respuestas generativas, comunidades y licencias de datos