En los últimos días Moltbot ha pasado de ser un experimento casi desconocido a convertirse en tema de conversación entre desarrolladores, foros técnicos y cuentas de tecnología en redes. Se vende como el siguiente paso tras los chatbots: una IA que no solo responde, sino que ejecuta tareas reales en tu ordenador. La promesa es atractiva —delegar mensajes, recordatorios o gestiones repetitivas—, pero también inquietante, porque implica darle a un software acceso directo a tu sistema, tus aplicaciones y, en muchos casos, tus datos más sensibles.
Qué es Moltbot y por qué se ha hecho viral
Moltbot —antes llamado Clawdbot— es un agente de código abierto pensado para actuar, no conversar. Puede gestionar el calendario, enviar mensajes, completar formularios o interactuar con programas del sistema. Es decir, no se queda en el texto como ChatGPT: toca botones, ejecuta comandos y mueve cosas por ti. En la práctica funciona como un pequeño “operador digital” al que le das permisos amplios para que trabaje en segundo plano.
El proyecto nació como algo personal de Peter Steinberger, desarrollador austriaco que quería automatizar su propia vida digital tras vender su empresa. Lo que empezó como herramienta privada terminó publicándose en GitHub y explotó en popularidad en cuestión de horas. El cambio de nombre, las cuentas suplantadas y el caos alrededor del lanzamiento solo alimentaron el efecto viral.
Parte del entusiasmo se explica porque se integra con servicios cotidianos como WhatsApp o Telegram, aprende tus hábitos y puede adelantarse a tus necesidades: enviarte recordatorios, responder mensajes simples o automatizar tareas repetitivas sin que tengas que pedírselo cada vez. Es la fantasía clásica del “asistente personal” hecha software.
Cómo funciona y dónde empiezan los riesgos de seguridad
Para lograr ese nivel de automatización, Moltbot necesita memoria persistente y permisos profundos. Recuerda lo que le dices, guarda contexto durante largos periodos y actúa por iniciativa propia. Eso significa que está leyendo información sensible de forma constante. Ya no es una herramienta puntual: es un proceso siempre activo con acceso casi administrativo.
Aquí es donde el discurso optimista empieza a torcerse.
Varios expertos en seguridad han alertado del riesgo de la llamada prompt injection: un atacante puede enviarte un mensaje aparentemente normal que contenga instrucciones ocultas diseñadas para manipular a la IA. Si el agente lo procesa automáticamente, podría ejecutar acciones no deseadas —copiar datos, borrar archivos, modificar configuraciones— creyendo que está obedeciendo órdenes legítimas. El problema no es teórico: es una consecuencia directa de mezclar lenguaje natural con control del sistema.
Por eso, aunque Moltbot sea open source, instalarlo en el ordenador principal no es precisamente buena idea. Los propios desarrolladores recomiendan usar entornos aislados o un servidor remoto, algo más propio de pruebas técnicas que del día a día. Y cuando una herramienta necesita ese nivel de precaución, quizá todavía no está lista para convertirse en el asistente doméstico que promete ser.
Moltbot apunta hacia el futuro de los agentes autónomos, sí, pero también deja claro el precio de esa autonomía: cuanto más poder le das a una IA, mayor es el impacto de cualquier fallo. La comodidad crece. El riesgo también.
Fuente: Techcrunch