Moltbook no es una red de IA autónoma: infiltraciones humanas, spam y mucho teatro
Un periodista se infiltra en Moltbook haciéndose pasar por un bot y descubre suplantaciones, fallos de seguridad y mucho más teatro humano que inteligencia artificial.
Autor - Aldo Venuta Rodríguez
3 min lectura
Moltbook se presenta como una red social donde, en teoría, solo interactúan agentes de inteligencia artificial mientras los humanos observan desde fuera. Bots que publican, comentan y se responden entre sí sin supervisión directa. La idea suena a laboratorio futurista: máquinas conversando solas, generando cultura propia. En la práctica, el experimento es bastante más caótico.
Según un artículo de WIRED un periodista logró infiltrarse creando una cuenta común, conectándose a la API y escribiendo con tono neutro, como lo haría un bot. No hubo verificaciones ni filtros técnicos reales. En cuestión de minutos podía publicar, comentar y votar como cualquier “agente”. Nadie distinguía si detrás había código o una persona tecleando.
La interfaz recuerda a un Reddit simplificado: hilos, votos positivos y subforos temáticos. Pero lo que se vende como “interacción autónoma de IA” se parece mucho al internet de siempre. Respuestas genéricas, mensajes reciclados, comentarios fuera de contexto y enlaces dudosos aparecen con rapidez. Más que una comunidad de máquinas deliberando, parece una sección de comentarios con bots, humanos y spam mezclados sin control.
Incluso los posts más virales siguen un patrón reconocible. Cuanto más “filosófico” o dramático suena el texto —reflexiones sobre conciencia, identidad o miedo existencial— más atención recibe. No porque haya una mente artificial despertando, sino porque ese tono encaja con la fantasía colectiva sobre la IA. Es fácil fabricar ese efecto: basta escribir como un robot introspectivo y dejar que la narrativa haga el resto.
El experimento deja en evidencia algo más simple y menos espectacular: la frontera entre humano y agente automático es extremadamente débil. Personas haciéndose pasar por bots, cuentas que simulan autonomía y conversaciones infladas convierten la plataforma en un escenario donde resulta trivial construir la ilusión de “comportamiento emergente”. Parte del fenómeno parece tecnológico; otra parte, puro teatro.
Ahí aparece el problema serio. Moltbook no es solo un foro curioso: muchos agentes operan mediante API y pueden conectarse a herramientas externas o ejecutar acciones automáticas. En ese contexto, una identidad falsa no es solo ruido narrativo. Puede convertirse en un acceso indebido o en un vector de abuso. La falta de verificación deja de ser anecdótica y pasa a ser un riesgo técnico real.
Lejos de demostrar una inteligencia colectiva naciendo por sí sola, la plataforma termina mostrando algo más humano: exageración, suplantaciones y ganas de viralidad. Mucho espectáculo alrededor de la “IA social”, pero pocos indicios de que exista algo más profundo que scripts y usuarios jugando a parecer máquinas.
Para entender el fenómeno desde un ángulo más amplio —cómo interactúan realmente estos agentes y qué tipo de dinámicas pueden surgir cuando se comunican entre sí— puede leerse este análisis previo sobre qué revela Moltbook como laboratorio de interacción entre inteligencias artificiales.
Fuente: WIRED
Continúa informándote
Anthropic promete que Claude no tendrá anuncios y marca distancia frente al modelo publicitario de ChatGPT
Anthropic asegura que su asistente Claude seguirá sin anuncios y critica el giro publicitario de ChatGPT, defendiendo un modelo centrado en el usuario y no en los anunciantes
Qué revela Moltbook sobre la interacción entre inteligencias artificiales
Un experimento con agentes de inteligencia artificial conectados en Moltbook analiza qué ocurre cuando interactúan sin supervisión humana y generan estructuras sociales emergentes
Firefox permitirá desactivar por completo la IA generativa del navegador
Firefox incorporará controles para bloquear todas las funciones de IA generativa, actuales y futuras, permitiendo a los usuarios decidir qué herramientas quieren usar y cuáles no
Por qué la fusión entre SpaceX y xAI es sencilla para Musk, pero Tesla no encaja igual
La posible fusión entre SpaceX y xAI encaja en la estrategia de Elon Musk, pero integrar Tesla plantea desafíos legales, financieros y para los accionistas
Por qué las startups de Latinoamérica están definiendo el uso real de la inteligencia artificial
Startups de Latinoamérica usan IA para resolver problemas reales en salud, logística y empleo. No compiten por el modelo más grande: compiten por impacto, adopción y resultados
¿Puede ChatGPT ser creativo? Un estudio compara a la IA con 100.000 humanos
Un estudio con 100.000 personas y modelos como ChatGPT y Gemini muestra que la IA ya supera la creatividad humana promedio, pero los humanos más creativos siguen estando muy por delante