Tecnología
Publicado:

Hackers intentaron usar la IA Claude para phishing y malware, según Anthropic

Anthropic detectó y bloqueó intentos de hackers de usar su IA Claude para crear correos de phishing, malware y campañas de influencia digital

2 min lectura
Teléfono inteligente mostrando en pantalla negra el texto Anthropic en letras blancas
Imagen ilustrativa. Créditos: Iceebook

La empresa de inteligencia artificial Anthropic informó este miércoles que había identificado y detenido intentos de piratas informáticos de usar su modelo Claude para fines delictivos. Los hackers buscaban generar correos de phishing, escribir código malicioso y burlar filtros de seguridad.

El hallazgo fue publicado en un informe que describe varios estudios de caso. En ellos se detalla cómo actores maliciosos intentaron aprovechar las capacidades de la IA para producir mensajes persuasivos y fragmentos de software dañino. Anthropic aseguró que sus sistemas internos bloquearon las solicitudes y que las cuentas involucradas fueron suspendidas.

Los investigadores señalaron intentos de redactar correos de phishing personalizados, diseñar campañas de desinformación y asistir a hackers poco experimentados con instrucciones paso a paso. También se detectaron múltiples esfuerzos por superar las restricciones del sistema mediante consultas repetitivas.

Anthropic, respaldada por Amazon y Alphabet, subrayó que sigue aplicando medidas de seguridad estrictas, que incluyen revisiones externas y pruebas constantes. La compañía afirmó que continuará publicando informes cuando detecte amenazas relevantes para contribuir a la protección de todo el ecosistema tecnológico.

Expertos en ciberseguridad advierten que el uso indebido de modelos de inteligencia artificial representa un riesgo creciente. Estas herramientas permiten a los delincuentes crear mensajes de estafa más convincentes, automatizar partes del desarrollo de malware y, potencialmente, planificar ataques más sofisticados.

El informe de Anthropic se suma a la creciente presión sobre las principales tecnológicas. OpenAI, Google y Microsoft también han enfrentado cuestionamientos por la posibilidad de que sus modelos sean explotados con fines ilegales. En paralelo, gobiernos como el de Estados Unidos y la Unión Europea avanzan en iniciativas regulatorias para reforzar la seguridad de la IA.

Para los investigadores, el caso confirma que los modelos avanzados de inteligencia artificial, si bien ofrecen grandes beneficios, también amplían las oportunidades para el ciberdelito. La clave, concluyen, está en equilibrar la innovación con salvaguardas sólidas que protejan a los usuarios y a la sociedad en su conjunto.

Preguntas frecuentes

¿Qué intentaron hacer los hackers con la IA Claude?

Buscaron generar correos de phishing, escribir fragmentos de malware y crear campañas de desinformación digital.

Cómo respondió Anthropic a los intentos de abuso de su IA?

La compañía bloqueó las solicitudes, suspendió las cuentas involucradas y reforzó sus filtros de seguridad.

¿Qué riesgos plantea el uso indebido de la inteligencia artificial?

Permite crear estafas más convincentes, automatizar malware y planificar ataques cibernéticos más avanzados.

¿Qué otras empresas enfrentan presión por estos riesgos?

OpenAI, Google y Microsoft también han sido cuestionadas y los gobiernos buscan regular el uso seguro de la IA.

Compartir artículo

Continúa informándote