La disputa comenzó cuando el Departamento de Defensa de Estados Unidos decidió clasificar a Anthropic como un riesgo para la cadena de suministro tecnológica. La designación fue anunciada por el secretario de Defensa, Pete Hegseth, y tuvo una consecuencia inmediata: el Pentágono y sus contratistas quedaron impedidos de utilizar las herramientas de inteligencia artificial desarrolladas por la empresa.
La medida forma parte de una discusión más amplia dentro del aparato militar estadounidense sobre qué tecnologías de inteligencia artificial pueden integrarse en sistemas de defensa y bajo qué condiciones. En ese contexto, la decisión de etiquetar a una empresa como riesgo implica excluirla de contratos militares y de la red de proveedores vinculados a proyectos estratégicos.
Ante esa situación, Anthropic inició una ofensiva legal en dos frentes. Por un lado, la compañía presentó una demanda en un tribunal federal de California para impugnar su inclusión en la lista negra del Pentágono. Por otro, solicitó al Tribunal de Apelaciones del Circuito del Distrito de Columbia que suspenda temporalmente la designación mientras se revisa judicialmente el caso.
En su presentación ante el tribunal de apelaciones, la empresa argumenta que la decisión del gobierno podría causarle “daño irreparable”. La compañía sostiene que la designación ya ha generado inquietud entre clientes corporativos y que más de cien empresas han contactado con ella para pedir aclaraciones sobre las implicaciones de la medida.
El impacto potencial no se limita al ámbito reputacional. Según estimaciones presentadas por los abogados de Anthropic, las acciones del gobierno estadounidense podrían provocar pérdidas de ingresos de cientos de millones de dólares e incluso alcanzar miles de millones hacia 2026. La cifra refleja la importancia económica que tienen los contratos empresariales y gubernamentales en el mercado emergente de la inteligencia artificial.
El conflicto se produce además en un momento en que el uso militar de herramientas de inteligencia artificial se ha convertido en un terreno estratégico. Los ejércitos están evaluando cómo integrar sistemas de análisis automatizado, modelos de lenguaje y otras aplicaciones de IA en operaciones, logística o toma de decisiones, lo que convierte a las empresas tecnológicas en actores clave dentro del ecosistema de defensa.
La decisión del Pentágono muestra que esa relación también está marcada por tensiones regulatorias y de seguridad. Clasificar a una compañía como riesgo para la cadena de suministro implica que el gobierno considera que su tecnología o sus procesos podrían comprometer sistemas sensibles, aunque los detalles concretos de la evaluación no se han hecho públicos.
Mientras los tribunales analizan el caso, el enfrentamiento entre Anthropic y el Departamento de Defensa se perfila como un ejemplo temprano de los conflictos que pueden surgir cuando el rápido crecimiento del sector de la inteligencia artificial se cruza con las exigencias de seguridad nacional. El resultado del litigio podría influir en cómo se definen en el futuro las reglas que gobiernan la relación entre empresas de IA y las instituciones militares.