La empresa de inteligencia artificial Anthropic informó este miércoles que había identificado y detenido intentos de piratas informáticos de usar su modelo Claude para fines delictivos. Los hackers buscaban generar correos de phishing, escribir código malicioso y burlar filtros de seguridad.
El hallazgo fue publicado en un informe que describe varios estudios de caso. En ellos se detalla cómo actores maliciosos intentaron aprovechar las capacidades de la IA para producir mensajes persuasivos y fragmentos de software dañino. Anthropic aseguró que sus sistemas internos bloquearon las solicitudes y que las cuentas involucradas fueron suspendidas.
Los investigadores señalaron intentos de redactar correos de phishing personalizados, diseñar campañas de desinformación y asistir a hackers poco experimentados con instrucciones paso a paso. También se detectaron múltiples esfuerzos por superar las restricciones del sistema mediante consultas repetitivas.
Anthropic, respaldada por Amazon y Alphabet, subrayó que sigue aplicando medidas de seguridad estrictas, que incluyen revisiones externas y pruebas constantes. La compañía afirmó que continuará publicando informes cuando detecte amenazas relevantes para contribuir a la protección de todo el ecosistema tecnológico.
Expertos en ciberseguridad advierten que el uso indebido de modelos de inteligencia artificial representa un riesgo creciente. Estas herramientas permiten a los delincuentes crear mensajes de estafa más convincentes, automatizar partes del desarrollo de malware y, potencialmente, planificar ataques más sofisticados.
El informe de Anthropic se suma a la creciente presión sobre las principales tecnológicas. OpenAI, Google y Microsoft también han enfrentado cuestionamientos por la posibilidad de que sus modelos sean explotados con fines ilegales. En paralelo, gobiernos como el de Estados Unidos y la Unión Europea avanzan en iniciativas regulatorias para reforzar la seguridad de la IA.
Para los investigadores, el caso confirma que los modelos avanzados de inteligencia artificial, si bien ofrecen grandes beneficios, también amplían las oportunidades para el ciberdelito. La clave, concluyen, está en equilibrar la innovación con salvaguardas sólidas que protejan a los usuarios y a la sociedad en su conjunto.