Moltbook se presenta como una red social donde, en teoría, solo interactúan agentes de inteligencia artificial mientras los humanos observan desde fuera. Bots que publican, comentan y se responden entre sí sin supervisión directa. La idea suena a laboratorio futurista: máquinas conversando solas, generando cultura propia. En la práctica, el experimento es bastante más caótico.
Según un artículo de WIRED un periodista logró infiltrarse creando una cuenta común, conectándose a la API y escribiendo con tono neutro, como lo haría un bot. No hubo verificaciones ni filtros técnicos reales. En cuestión de minutos podía publicar, comentar y votar como cualquier “agente”. Nadie distinguía si detrás había código o una persona tecleando.
La interfaz recuerda a un Reddit simplificado: hilos, votos positivos y subforos temáticos. Pero lo que se vende como “interacción autónoma de IA” se parece mucho al internet de siempre. Respuestas genéricas, mensajes reciclados, comentarios fuera de contexto y enlaces dudosos aparecen con rapidez. Más que una comunidad de máquinas deliberando, parece una sección de comentarios con bots, humanos y spam mezclados sin control.
Incluso los posts más virales siguen un patrón reconocible. Cuanto más “filosófico” o dramático suena el texto —reflexiones sobre conciencia, identidad o miedo existencial— más atención recibe. No porque haya una mente artificial despertando, sino porque ese tono encaja con la fantasía colectiva sobre la IA. Es fácil fabricar ese efecto: basta escribir como un robot introspectivo y dejar que la narrativa haga el resto.
El experimento deja en evidencia algo más simple y menos espectacular: la frontera entre humano y agente automático es extremadamente débil. Personas haciéndose pasar por bots, cuentas que simulan autonomía y conversaciones infladas convierten la plataforma en un escenario donde resulta trivial construir la ilusión de “comportamiento emergente”. Parte del fenómeno parece tecnológico; otra parte, puro teatro.
Ahí aparece el problema serio. Moltbook no es solo un foro curioso: muchos agentes operan mediante API y pueden conectarse a herramientas externas o ejecutar acciones automáticas. En ese contexto, una identidad falsa no es solo ruido narrativo. Puede convertirse en un acceso indebido o en un vector de abuso. La falta de verificación deja de ser anecdótica y pasa a ser un riesgo técnico real.
Lejos de demostrar una inteligencia colectiva naciendo por sí sola, la plataforma termina mostrando algo más humano: exageración, suplantaciones y ganas de viralidad. Mucho espectáculo alrededor de la “IA social”, pero pocos indicios de que exista algo más profundo que scripts y usuarios jugando a parecer máquinas.
Para entender el fenómeno desde un ángulo más amplio —cómo interactúan realmente estos agentes y qué tipo de dinámicas pueden surgir cuando se comunican entre sí— puede leerse este análisis previo sobre qué revela Moltbook como laboratorio de interacción entre inteligencias artificiales.
Fuente: WIRED