Qué es Moltbot y por qué preocupa a los expertos en seguridad
Moltbot se ha colado en el radar tecnológico como una nueva generación de asistentes de inteligencia artificial: sistemas que no se limitan a responder, sino que interactúan directamente con el ordenador del usuario.
Autor - Aldo Venuta Rodríguez
3 min lectura
En los últimos días Moltbot ha pasado de ser un experimento casi desconocido a convertirse en tema de conversación entre desarrolladores, foros técnicos y cuentas de tecnología en redes. Se vende como el siguiente paso tras los chatbots: una IA que no solo responde, sino que ejecuta tareas reales en tu ordenador. La promesa es atractiva —delegar mensajes, recordatorios o gestiones repetitivas—, pero también inquietante, porque implica darle a un software acceso directo a tu sistema, tus aplicaciones y, en muchos casos, tus datos más sensibles.
Qué es Moltbot y por qué se ha hecho viral
Moltbot —antes llamado Clawdbot— es un agente de código abierto pensado para actuar, no conversar. Puede gestionar el calendario, enviar mensajes, completar formularios o interactuar con programas del sistema. Es decir, no se queda en el texto como ChatGPT: toca botones, ejecuta comandos y mueve cosas por ti. En la práctica funciona como un pequeño “operador digital” al que le das permisos amplios para que trabaje en segundo plano.
El proyecto nació como algo personal de Peter Steinberger, desarrollador austriaco que quería automatizar su propia vida digital tras vender su empresa. Lo que empezó como herramienta privada terminó publicándose en GitHub y explotó en popularidad en cuestión de horas. El cambio de nombre, las cuentas suplantadas y el caos alrededor del lanzamiento solo alimentaron el efecto viral.
Parte del entusiasmo se explica porque se integra con servicios cotidianos como WhatsApp o Telegram, aprende tus hábitos y puede adelantarse a tus necesidades: enviarte recordatorios, responder mensajes simples o automatizar tareas repetitivas sin que tengas que pedírselo cada vez. Es la fantasía clásica del “asistente personal” hecha software.
Cómo funciona y dónde empiezan los riesgos de seguridad
Para lograr ese nivel de automatización, Moltbot necesita memoria persistente y permisos profundos. Recuerda lo que le dices, guarda contexto durante largos periodos y actúa por iniciativa propia. Eso significa que está leyendo información sensible de forma constante. Ya no es una herramienta puntual: es un proceso siempre activo con acceso casi administrativo.
Aquí es donde el discurso optimista empieza a torcerse.
Varios expertos en seguridad han alertado del riesgo de la llamada prompt injection: un atacante puede enviarte un mensaje aparentemente normal que contenga instrucciones ocultas diseñadas para manipular a la IA. Si el agente lo procesa automáticamente, podría ejecutar acciones no deseadas —copiar datos, borrar archivos, modificar configuraciones— creyendo que está obedeciendo órdenes legítimas. El problema no es teórico: es una consecuencia directa de mezclar lenguaje natural con control del sistema.
Por eso, aunque Moltbot sea open source, instalarlo en el ordenador principal no es precisamente buena idea. Los propios desarrolladores recomiendan usar entornos aislados o un servidor remoto, algo más propio de pruebas técnicas que del día a día. Y cuando una herramienta necesita ese nivel de precaución, quizá todavía no está lista para convertirse en el asistente doméstico que promete ser.
Moltbot apunta hacia el futuro de los agentes autónomos, sí, pero también deja claro el precio de esa autonomía: cuanto más poder le das a una IA, mayor es el impacto de cualquier fallo. La comodidad crece. El riesgo también.
Fuente: Techcrunch
Continúa informándote
La inteligencia artificial aprende más rápido si tiene "conversaciones internas" consigo misma
Científicos han descubierto que dotar a la IA de un "monólogo interno" y memoria a corto plazo mejora su capacidad para aprender y resolver tareas complejas con menos datos
La inteligencia artificial ya interviene en un tercio del código que se escribe
Un estudio revela que la IA generativa ya participa en casi un tercio del nuevo código de software, con fuertes diferencias regionales y ventajas para programadores expertos
Qué es una filtración de datos y por qué son más frecuentes de lo que las empresas admiten
Una filtración de datos expone información personal sin permiso y ocurre más seguido de lo que parece mientras muchas empresas retrasan o minimizan el alcance real de las brechas
Microsoft une centros de datos de Wisconsin y Atlanta para entrenar su IA como un único superordenador distribuido
Microsoft enlaza nuevos centros de datos con fibra dedicada y miles de GPU para entrenar modelos de IA a escala masiva, reduciendo meses de cálculo a semanas
Microsoft anuncia Maia 200, su nuevo chip para impulsar aplicaciones de inteligencia artificial
Microsoft lanza su chip de inferencia Maia 200 diseñado para ejecutar modelos de IA a gran escala con eficiencia energética mejorada y reducir su dependencia de Nvidia en hardware de IA
Los cables submarinos transportan más del 95% del tráfico mundial de internet
Más del 95% del tráfico mundial de internet viaja por cables submarinos de fibra óptica una infraestructura física crítica vulnerable a cortes accidentes y tensiones geopolíticas