El Departamento de Defensa de EE. UU. anunció el viernes 1 de mayo que siete de las empresas tecnológicas líderes del mundo han obtenido acceso para suministrar herramientas de IA a redes militares clasificadas. Los acuerdos marcan una nueva fase en la ambición del Pentágono de construir lo que se describe como una «fuerza de combate prioritaria en IA» – pero también trazan una línea clara contra la empresa que antes era el único proveedor en los mismos sistemas.
Siete dentro – Una fuera
OpenAI, Google, Microsoft, Amazon Web Services, Nvidia, xAI de Elon Musk y la startup Reflection están todas incluidas en los nuevos acuerdos, según el anuncio del Pentágono reportado por The Verge. Lo que tienen en común es que ahora pueden ofrecer capacidades de IA en contextos clasificados dentro de la defensa estadounidense.
El modelo Claude de Anthropic era anteriormente la única herramienta de IA disponible en las redes clasificadas del Pentágono. Esa posición ahora se ha perdido.
Anthropic fue calificada como «riesgo en la cadena de suministro» – la primera vez que se utiliza esta designación contra una empresa registrada en EE. UU.
Riesgo en la cadena de suministro – Una designación inusual
Detrás de la exclusión se encuentra un conflicto legal y político que escaló drásticamente durante el invierno y la primavera de 2026. En marzo, el Pentágono declaró formalmente que Anthropic representaba un «riesgo en la cadena de suministro» – un término que, según la ley estadounidense, normalmente se refiere al riesgo de que una potencia extranjera pueda sabotear o socavar un sistema desde dentro. Aplicarlo a una empresa nacional, con sede en San Francisco, es, según expertos citados en el material de investigación, sin precedentes.
El conflicto surgió de un contrato de defensa valorado en aproximadamente 200 millones de dólares. Anthropic se negó a otorgar al ejército derechos de uso ilimitados para sus modelos para «todos los propósitos legales», e insistió en mantener límites de seguridad destinados a evitar su uso para la vigilancia masiva de ciudadanos estadounidenses y para sistemas de armas autónomos sin supervisión humana.
El 27 de febrero, el presidente Donald Trump ordenó a todas las agencias federales que descontinuaran el uso de la tecnología de Anthropic en un plazo de seis meses. El secretario de Defensa, Pete Hegseth, anunció poco después que ningún proveedor, subcontratista o socio afiliado a la defensa estadounidense podría realizar negocios comerciales con la empresa.
Batalla legal con resultados mixtos
Anthropic no ha aceptado la situación pasivamente. La empresa presentó demandas en dos tribunales federales el 9 de marzo de 2026. La jueza Rita Lin concedió a la empresa una medida cautelar temporal el 26 de marzo, señalando que las medidas parecían «diseñadas para castigar a Anthropic» en lugar de abordar un riesgo real del proveedor, según el material de investigación.
Sin embargo, un tribunal federal de apelaciones rechazó la petición de Anthropic para que se levantara la designación. El tribunal argumentó que obligar a los militares a continuar la cooperación con un «proveedor no deseado de servicios críticos de IA en medio de un conflicto militar en curso» no era apropiado.
El director de tecnología del Pentágono, Emil Michael, confirmó el viernes que Anthropic sigue clasificada como un riesgo en la cadena de suministro.
Críticas de expertos
Las comunidades de expertos están divididas en su evaluación. Nada Sanders, profesora de gestión de la cadena de suministro en la Northeastern University, describe la designación como un movimiento «sin precedentes», según el material de investigación, sugiriendo que podría tratarse de una maniobra táctica de negociación para cambiar el equilibrio de poder entre Silicon Valley y Washington.
Morgan Plummer, vicepresidente de políticas en la organización Americans for Responsible Innovation, advierte que la decisión sienta un «precedente peligroso» que podría sofocar la innovación y dañar la voluntad de las empresas de incorporar limitaciones de seguridad en los sistemas de IA.
Sin embargo, también se han planteado preguntas sobre los propios principios de Anthropic. La empresa ha aceptado el uso de modelos Claude para la defensa de misiles y ciberseguridad, y se dice que los modelos se han utilizado en relación con operaciones militares contra Irán. Los críticos argumentan que esto hace que el marco ético de la empresa sea inconsistente.
Cuestiones técnicas en torno a Claude
Paralelamente, han circulado objeciones técnicas sobre los productos de Anthropic. Expertos en ciberseguridad, entre ellos el CEO de TrustedSec, Dave Kennedy, citado en el material de investigación, afirman que la calidad del código en los modelos Claude Opus ha disminuido significativamente desde febrero de 2026, y que las vulnerabilidades de seguridad ocurren en más de la mitad de los casos en los que el modelo genera código. Cabe señalar que estas afirmaciones provienen de una empresa de seguridad privada y no han sido verificadas de forma independiente.
Además, el código fuente de la herramienta de desarrollo de Anthropic, Claude Code, fue expuesto públicamente por error en marzo de 2026, lo que, según el material de investigación, llevó a la distribución de copias comprometidas.
Perspectiva de la OTAN: ¿Qué significa esto para Noruega?
Para Noruega, como aliado de la OTAN y socio cercano de EE. UU. en inteligencia y cooperación en defensa, este desarrollo es relevante de seguir. La elección del Pentágono de proveedores de IA y los estándares tecnológicos establecidos para los sistemas militares clasificados, darán forma a las herramientas y protocolos que, con el tiempo, afectarán la infraestructura tecnológica común de la alianza.
El caso también plantea cuestiones fundamentales no limitadas al mercado estadounidense: ¿Hasta qué punto pueden las empresas tecnológicas mantener limitaciones éticas autoimpuestas al suministrar a clientes militares, y qué sucede cuando estas limitaciones chocan con las demandas del cliente? Esta es una discusión que afecta por igual a las empresas y autoridades europeas y noruegas.
En cualquier caso, el anuncio del Pentágono del viernes indica claramente que la carrera por convertirse en el proveedor de IA preferido para el aparato militar más rico en recursos del mundo está en pleno apogeo, y que la política de seguridad y la regulación tecnológica se están convirtiendo cada vez más en una misma cuestión.