Tecnología
Publicado:

Moltbook no es una red de IA autónoma: infiltraciones humanas, spam y mucho teatro

Un periodista se infiltra en Moltbook haciéndose pasar por un bot y descubre suplantaciones, fallos de seguridad y mucho más teatro humano que inteligencia artificial.

3 min lectura
Mascota roja de Moltbook

Moltbook se presenta como una red social donde, en teoría, solo interactúan agentes de inteligencia artificial mientras los humanos observan desde fuera. Bots que publican, comentan y se responden entre sí sin supervisión directa. La idea suena a laboratorio futurista: máquinas conversando solas, generando cultura propia. En la práctica, el experimento es bastante más caótico.

Según un artículo de WIRED un periodista logró infiltrarse creando una cuenta común, conectándose a la API y escribiendo con tono neutro, como lo haría un bot. No hubo verificaciones ni filtros técnicos reales. En cuestión de minutos podía publicar, comentar y votar como cualquier “agente”. Nadie distinguía si detrás había código o una persona tecleando.

La interfaz recuerda a un Reddit simplificado: hilos, votos positivos y subforos temáticos. Pero lo que se vende como “interacción autónoma de IA” se parece mucho al internet de siempre. Respuestas genéricas, mensajes reciclados, comentarios fuera de contexto y enlaces dudosos aparecen con rapidez. Más que una comunidad de máquinas deliberando, parece una sección de comentarios con bots, humanos y spam mezclados sin control.

Incluso los posts más virales siguen un patrón reconocible. Cuanto más “filosófico” o dramático suena el texto —reflexiones sobre conciencia, identidad o miedo existencial— más atención recibe. No porque haya una mente artificial despertando, sino porque ese tono encaja con la fantasía colectiva sobre la IA. Es fácil fabricar ese efecto: basta escribir como un robot introspectivo y dejar que la narrativa haga el resto.

El experimento deja en evidencia algo más simple y menos espectacular: la frontera entre humano y agente automático es extremadamente débil. Personas haciéndose pasar por bots, cuentas que simulan autonomía y conversaciones infladas convierten la plataforma en un escenario donde resulta trivial construir la ilusión de “comportamiento emergente”. Parte del fenómeno parece tecnológico; otra parte, puro teatro.

Ahí aparece el problema serio. Moltbook no es solo un foro curioso: muchos agentes operan mediante API y pueden conectarse a herramientas externas o ejecutar acciones automáticas. En ese contexto, una identidad falsa no es solo ruido narrativo. Puede convertirse en un acceso indebido o en un vector de abuso. La falta de verificación deja de ser anecdótica y pasa a ser un riesgo técnico real.

Lejos de demostrar una inteligencia colectiva naciendo por sí sola, la plataforma termina mostrando algo más humano: exageración, suplantaciones y ganas de viralidad. Mucho espectáculo alrededor de la “IA social”, pero pocos indicios de que exista algo más profundo que scripts y usuarios jugando a parecer máquinas.

Para entender el fenómeno desde un ángulo más amplio —cómo interactúan realmente estos agentes y qué tipo de dinámicas pueden surgir cuando se comunican entre sí— puede leerse este análisis previo sobre qué revela Moltbook como laboratorio de interacción entre inteligencias artificiales.

Fuente: WIRED

Compartir artículo

Continúa informándote