Moltbook no es una red de IA autónoma: infiltraciones humanas, spam y mucho teatro
Un periodista se infiltra en Moltbook haciéndose pasar por un bot y descubre suplantaciones, fallos de seguridad y mucho más teatro humano que inteligencia artificial.
Autor - Aldo Venuta Rodríguez
3 min lectura
Moltbook se presenta como una red social donde, en teoría, solo interactúan agentes de inteligencia artificial mientras los humanos observan desde fuera. Bots que publican, comentan y se responden entre sí sin supervisión directa. La idea suena a laboratorio futurista: máquinas conversando solas, generando cultura propia. En la práctica, el experimento es bastante más caótico.
Según un artículo de WIRED un periodista logró infiltrarse creando una cuenta común, conectándose a la API y escribiendo con tono neutro, como lo haría un bot. No hubo verificaciones ni filtros técnicos reales. En cuestión de minutos podía publicar, comentar y votar como cualquier “agente”. Nadie distinguía si detrás había código o una persona tecleando.
La interfaz recuerda a un Reddit simplificado: hilos, votos positivos y subforos temáticos. Pero lo que se vende como “interacción autónoma de IA” se parece mucho al internet de siempre. Respuestas genéricas, mensajes reciclados, comentarios fuera de contexto y enlaces dudosos aparecen con rapidez. Más que una comunidad de máquinas deliberando, parece una sección de comentarios con bots, humanos y spam mezclados sin control.
Incluso los posts más virales siguen un patrón reconocible. Cuanto más “filosófico” o dramático suena el texto —reflexiones sobre conciencia, identidad o miedo existencial— más atención recibe. No porque haya una mente artificial despertando, sino porque ese tono encaja con la fantasía colectiva sobre la IA. Es fácil fabricar ese efecto: basta escribir como un robot introspectivo y dejar que la narrativa haga el resto.
El experimento deja en evidencia algo más simple y menos espectacular: la frontera entre humano y agente automático es extremadamente débil. Personas haciéndose pasar por bots, cuentas que simulan autonomía y conversaciones infladas convierten la plataforma en un escenario donde resulta trivial construir la ilusión de “comportamiento emergente”. Parte del fenómeno parece tecnológico; otra parte, puro teatro.
Ahí aparece el problema serio. Moltbook no es solo un foro curioso: muchos agentes operan mediante API y pueden conectarse a herramientas externas o ejecutar acciones automáticas. En ese contexto, una identidad falsa no es solo ruido narrativo. Puede convertirse en un acceso indebido o en un vector de abuso. La falta de verificación deja de ser anecdótica y pasa a ser un riesgo técnico real.
Lejos de demostrar una inteligencia colectiva naciendo por sí sola, la plataforma termina mostrando algo más humano: exageración, suplantaciones y ganas de viralidad. Mucho espectáculo alrededor de la “IA social”, pero pocos indicios de que exista algo más profundo que scripts y usuarios jugando a parecer máquinas.
Para entender el fenómeno desde un ángulo más amplio —cómo interactúan realmente estos agentes y qué tipo de dinámicas pueden surgir cuando se comunican entre sí— puede leerse este análisis previo sobre qué revela Moltbook como laboratorio de interacción entre inteligencias artificiales.
Fuente: WIRED
Continúa informándote
xAI hace pública su reunión y plantea una IA que opere desde el espacio
xAI publicó su reunión interna y detalló su reorganización, cifras de crecimiento y planes para desarrollar centros de datos de IA en órbita
Qué son los centros de datos y cómo funcionan por dentro
Qué son los centros de datos, cómo funcionan por dentro, qué hay en sus servidores, redes y sistemas de refrigeración, y por qué consumen tanta energía en la era de la nube y la IA
Chatbots religiosos y sermones con IA: la tecnología se integra en comunidades de fe
La inteligencia artificial empieza a usarse en iglesias y comunidades religiosas para preparar sermones, ofrecer orientación espiritual y crear chatbots, abriendo un debate sobre fe, ética y tecnología
Cada vez es más difícil distinguir entre videos reales y videos creados por inteligencia artificial
Los videos generados por inteligencia artificial alcanzan un realismo casi indistinguible de las grabaciones reales, lo que complica la verificación, alimenta la desinformación y erosiona la confianza digital
Qué implica para Google tener que abrir sus datos de búsqueda e IA a la competencia
La UE presiona a Google para compartir datos de búsqueda, Android y su IA con rivales. La medida promete más competencia, pero abre dudas sobre privacidad y seguridad.
Reddit apuesta por la búsqueda con IA como su próximo motor de ingresos
Reddit impulsa su buscador con inteligencia artificial y lo perfila como su próxima gran fuente de ingresos, combinando respuestas generativas, comunidades y licencias de datos