Una ruptura ética entre el Departamento de Defensa de EE. UU. (DoD) y la empresa de IA Anthropic ha resultado en la exclusión de Anthropic del mercado de contratos de defensa, y en la entrada de OpenAI como reemplazo, según TechCrunch.

¿Sobre qué no estuvieron de acuerdo?

El conflicto gira en torno al grado en que el ejército debe tener control sobre los modelos comerciales de IA. Según la fuente de investigación, el Departamento de Defensa exige que las empresas que firman contratos con el DoD otorguen al gobierno una «licencia irrevocable» para usar los modelos para todos los fines legales, sin reservas.

Para Anthropic, dos puntos eran absolutamente innegociables: la vigilancia masiva de ciudadanos estadounidenses y los sistemas de armas totalmente autónomos. El fundador y CEO de la compañía, Dario Amodei, declaró que la empresa «no puede cumplir de buena fe» con las demandas del Pentágono.

"No podemos cumplir de buena fe" con las demandas del Pentágono, dice el CEO de Anthropic, Dario Amodei.

El resultado fue que el Pentágono clasificó formalmente a Anthropic como un «fallo en la cadena de suministro», una designación que en la práctica excluye a la empresa de los contratos de defensa.

El Pentágono califica a Anthropic como riesgo de seguridad tras disputa sobre drones y vigilancia

Dos Empresas, Dos Opciones

Donde Anthropic se retiró, OpenAI intervino. La compañía aceptó el contrato de 200 millones de dólares que Anthropic rechazó. La respuesta de los usuarios fue inmediata y brutal: el número de desinstalaciones de ChatGPT aumentó un 295 por ciento.

200 mill. USD
Valor del contrato ofrecido por el Pentágono
295 %
Aumento en las desinstalaciones de ChatGPT después de la firma de OpenAI

Las dos empresas representan así dos estrategias muy diferentes para manejar los contratos gubernamentales: Anthropic prioriza sus propios límites éticos, mientras que OpenAI acepta los términos y obtiene el beneficio comercial, a un costo reputacional obvio.

El Pentágono califica a Anthropic como riesgo de seguridad tras disputa sobre drones y vigilancia

Los Marcos Éticos del Pentágono y Anthropic Son Fundamentalmente Diferentes

El enfoque de Anthropic es particularmente conocido por su método de «IA Constitucional», donde el modelo – Claude – opera según un documento fundacional con valores claramente definidos y prohibiciones codificadas. Según la fuente de investigación, estas prohibiciones incluyen la asistencia con armas de destrucción masiva e intentos de tomar el poder ilegalmente.

En febrero de 2026, Anthropic actualizó su Política de Escalado Responsable (RSP), pero no sin controversia: la compañía eliminó una promesa anterior de no entrenar un modelo de IA a menos que se pudieran garantizar de antemano medidas de seguridad suficientes.

¿Qué significa esto para la industria de la IA?

La disputa entre el Pentágono y Anthropic es la primera gran confrontación pública entre los límites éticos de un actor de IA y la demanda estatal de control ilimitado.

El caso plantea preguntas que darán forma a la industria durante mucho tiempo: ¿Pueden las empresas comerciales de IA mantener sus propios marcos éticos cuando el estado ejerce presión? ¿Y qué precio están dispuestos a pagar los usuarios e inversores por los compromisos?

La reacción a la firma de OpenAI –en forma de desinstalaciones masivas– sugiere que el capital de confianza de las empresas de IA está más estrechamente vinculado a la credibilidad ética de lo que muchos podrían haber pensado. Anthropic, por su parte, ha pagado el precio en contratos perdidos, pero cita las declaraciones del CEO Amodei como un posicionamiento deliberado.

Queda por ver si el modelo del Pentágono –donde el estado exige una «licencia irrevocable» para todos los fines legales– se convertirá en la norma para futuros contratos de IA, o si la resistencia de actores como Anthropic forzará un marco más matizado.