El Secretario de Defensa Pete Hegseth ha enviado una señal clara a la empresa de IA Anthropic: Concedan a los militares acceso sin restricciones a la tecnología de IA, o vean cómo el contrato desaparece. Según TechCrunch, la fecha límite está fijada para el viernes 28 de febrero de 2026, y Anthropic no tiene intención de ceder por ahora.

Un contrato de 200 millones de dólares pende de un hilo

En julio de 2025, Anthropic recibió un contrato de 200 millones de dólares con el Departamento de Defensa de EE. UU. (DoD). La misión era desarrollar capacidades avanzadas de IA para satisfacer necesidades críticas de seguridad nacional. La empresa también obtuvo una posición exclusiva: el modelo Claude era el único modelo de lenguaje grande aprobado para su uso en las redes clasificadas del DoD.

Ahora esa posición está bajo una seria presión.

$200M
Valor del contrato en juego
28 de feb. de 2026
Plazo de Anthropic del Pentágono

Según TechCrunch, Hegseth supuestamente le dijo directamente al CEO de Anthropic, Dario Amodei, que el Pentágono «no utilizará modelos de IA que no permitan hacer la guerra». El Departamento de Defensa está considerando ahora clasificar a Anthropic como un «riesgo en la cadena de suministro», una clasificación que, en la práctica, obligaría a otros contratistas de defensa a cortar lazos con la empresa.

El Pentágono da un ultimátum a Anthropic: Eliminen las reglas de seguridad de la IA o pierdan un contrato de $200M

¿Qué se niega a hacer Anthropic?

Las reglas de seguridad de Anthropic —las llamadas «guardrails»— están diseñadas para evitar que el modelo Claude se utilice para controlar sistemas de armas totalmente autónomos o para llevar a cabo una vigilancia masiva de la población nacional. Estos son principios que la empresa no está dispuesta a abandonar, incluso bajo la presión de la máxima dirección militar del país.

Anthropic prioriza la ética de la IA por encima de uno de los contratos gubernamentales más lucrativos de la industria

Esta no es la primera vez que las tensiones entre las directrices éticas de las empresas comerciales de IA y las necesidades de uso militar han salido a la superficie, pero el conflicto entre el Pentágono y Anthropic es probablemente el más abierto y formalizado que se ha conocido hasta ahora.

El Pentágono da un ultimátum a Anthropic: Eliminen las reglas de seguridad de la IA o pierdan un contrato de $200M

Los competidores son más flexibles

Mientras Anthropic se mantiene firme, la situación es diferente entre sus competidores. Según fuentes de investigación citadas por TechCrunch, tanto OpenAI, Google como xAI de Elon Musk han recibido contratos similares de 200 millones de dólares, y aparentemente están más dispuestos a adaptarse a las exigencias del Pentágono.

El hecho de que xAI ya esté aprobado para redes clasificadas ha roto, según TechCrunch, la posición exclusiva anterior de Anthropic en esta área.

Una cuestión de principios con grandes consecuencias

La disputa va más allá de un solo contrato. Expone una pregunta fundamental a la que la industria de la IA aún no ha encontrado respuesta: ¿Quién decide los límites de lo que la inteligencia artificial puede utilizarse en la guerra?

La posición del Pentágono es clara: los militares quieren herramientas de IA que puedan utilizarse para «todos los fines legales» sin que los desarrolladores impongan obstáculos. Anthropic, por otro lado, cree que precisamente esos obstáculos son cruciales para el desarrollo responsable de la tecnología.

Cómo termine esto antes del viernes 28 de febrero no solo determinará el destino del contrato de defensa de Anthropic, sino que también podría sentar un precedente sobre cómo el resto de la industria de la IA se relacionará con los clientes militares en el futuro.

Fuentes: TechCrunch (24 de febrero de 2026)