Cuando el presidente Donald Trump firmó una orden el 27 de febrero de 2026 para excluir la tecnología de IA de Anthropic de todo el aparato gubernamental federal, envió ondas de choque a través de la industria tecnológica. Anthropic no es una pequeña startup — en ese momento, la compañía había celebrado contratos con el Departamento de Defensa, agencias de inteligencia y numerosas otras agencias federales, entre otros. Ahora, el futuro de estos acuerdos es altamente incierto.
Una Empresa Floreciente Enfrenta Oposición Política
Según Stratechery, el negocio de Anthropic con clientes empresariales está experimentando un crecimiento casi explosivo. Este aumento de ingresos significa que lo que antes era una colaboración relativamente limitada con las autoridades, ahora tiene una enorme importancia estratégica y comercial. Ya no se trata de proyectos piloto simbólicos — se refiere a una infraestructura arraigada en entornos sensibles.
Anthropic había, entre otras cosas, celebrado un acuerdo de prototipo de dos años con la Oficina del Jefe Digital y de Inteligencia Artificial (CDAO) del Departamento de Defensa por un valor de hasta 200 millones de dólares, según fuentes de investigación citadas por Stratechery. Además, los modelos Claude ya estaban en uso en las redes clasificadas del Pentágono a través de una colaboración con la empresa de análisis de datos Palantir.

El Núcleo de la Disputa: ¿Quién Decide sobre el Uso de la IA?
El conflicto entre Anthropic y el Pentágono se trata fundamentalmente de quién tiene la última palabra sobre cómo se pueden utilizar los modelos de IA de la compañía. El Secretario de Defensa Pete Hegseth exigió que los términos del contrato debían permitir «cualquier uso legal», sin limitaciones específicas impuestas por la propia empresa.
Anthropic, por su parte, insistió en garantías contra el uso de Claude para la vigilancia masiva de ciudadanos estadounidenses o en sistemas de armas totalmente autónomos. El CEO Dario Amodei enfatizó que la compañía está genuinamente comprometida a contribuir a la seguridad nacional estadounidense, pero que ciertas aplicaciones están fuera de lo éticamente defendible o más allá de lo que la tecnología actual puede manejar con suficiente fiabilidad.
«Pintar un objetivo en Anthropic genera titulares jugosos, pero al final todos pierden» — general retirado Jack Shanahan, exjefe de la iniciativa de IA del Pentágono
El general retirado de la Fuerza Aérea Jack Shanahan, quien lideró la iniciativa de IA del Pentágono, describió las «líneas rojas» de Anthropic como razonables, según el material de origen. Advirtió que el conflicto dañaría a todas las partes involucradas.

Vengativo, Dice Anthropic
El 27 de febrero de 2026, el Secretario de Defensa Hegseth designó formalmente a Anthropic como una «amenaza para la seguridad nacional en la cadena de suministro». La designación es de gran alcance: no solo prohíbe los contratos gubernamentales directos, sino que también impide que todos los proveedores, subcontratistas y socios que trabajan con el ejército estadounidense realicen transacciones comerciales con Anthropic.
Dario Amodei calificó la decisión de «vengativa y punitiva» y anunció acciones legales contra la designación de la cadena de suministro, según la misma fuente.
Modelos Propios para Inteligencia Ya Estaban Operativos
Un detalle que hace que la decisión sea particularmente notable es que Anthropic ya había desarrollado sus propios modelos personalizados «Claude Gov» para actores de seguridad nacional de EE. UU. Según el material de origen, estos ya estaban operativos en entornos clasificados y diseñados para, entre otras cosas, una mejor gestión de la información clasificada, operaciones cibernéticas y análisis de inteligencia.
Además, Anthropic, a través de una colaboración con la Administración de Servicios Generales (GSA), había ofrecido Claude a las tres ramas del gobierno de EE. UU. por un dólar por agencia al año — una medida para simplificar el acceso y estandarizar el uso.
¿Qué Sucede Ahora?
La orden de Trump otorga al Departamento de Defensa y a otras agencias que ya tienen contratos con Anthropic seis meses para eliminar gradualmente la tecnología. Las demás agencias deben cesar inmediatamente.
Stratechery señala que el crecimiento explosivo de los ingresos en el mercado empresarial de Anthropic hace que el compromiso con las autoridades sea aún más crucial para la empresa. El caso no es solo un debate de principios sobre la seguridad de la IA — tiene consecuencias directas para una empresa en rápido crecimiento y para una infraestructura de seguridad nacional que ya se ha vuelto dependiente de las capacidades de Claude.
La demanda que Amodei anunció probablemente será una prueba importante de los límites del poder estatal para designar a empresas privadas de IA como riesgos de seguridad — y de lo que las empresas tecnológicas pueden exigir en las negociaciones con sus mayores clientes públicos.
