Cuando Anthropic fue expulsado por el Departamento de Defensa de EE. UU. en febrero de 2026, no pasaron muchas horas antes de que otro gigante de la IA interviniera. El 28 de febrero, OpenAI anunció un acuerdo formal con el Pentágono para poner a disposición los modelos de IA de la compañía en entornos clasificados, una medida que plantea preguntas sobre la sincronización política y qué distingue realmente los enfoques de ambas empresas.

De la Prohibición a la Formalidad

OpenAI ha experimentado un cambio significativo en su política respecto al uso militar de sus tecnologías. Antes de enero de 2024, las directrices de la compañía prohibían explícitamente el uso relacionado con «militares y guerra», así como el desarrollo de armas. En enero de 2024, OpenAI eliminó estas formulaciones específicas y las reemplazó con una instrucción más amplia de no «dañarse a sí mismo o a otros», según la base de investigación en la que MIT Technology Review fundamenta su cobertura.

La compañía presentó el cambio como un esfuerzo de limpieza para hacer el documento «más claro y legible», pero el efecto fue que se abrió la puerta a los contratos de defensa.

Sam Altman mismo reconoció que las negociaciones fueron «definitivamente apresuradas»
OpenAI Consiguió un Acuerdo con el Pentágono Horas Después de que Anthropic Fuera Excluido

Contenido del Acuerdo

El acuerdo de OpenAI con el Pentágono incluye lo que la compañía describe como robustos mecanismos de seguridad. Según MIT Technology Review, se han establecido «líneas rojas» que prohíben el uso de la tecnología para:

Sam Altman sostuvo que el enfoque de OpenAI es «multicapa» y más completo que el propuesto por Anthropic. Sugirió que Anthropic buscaba un mayor control operativo del que el Pentágono estaba dispuesto a conceder.

OpenAI Consiguió un Acuerdo con el Pentágono Horas Después de que Anthropic Fuera Excluido

El Reflejo de lo que Anthropic Exigió

Aquí, la situación se vuelve paradójica: Los límites que OpenAI ha logrado aceptar son esencialmente los mismos por los que Anthropic fue penalizado por insistir.

Anthropic había prohibido durante mucho tiempo la vigilancia masiva de ciudadanos estadounidenses y las armas totalmente autónomas que se disparan sin intervención humana. Cuando la compañía exigió que estos límites se incluyeran explícitamente en el contrato, el Pentágono declaró a Anthropic como un «riesgo para la seguridad nacional en la cadena de suministro». El presidente Donald Trump dio a todas las agencias federales seis meses para eliminar la tecnología de Anthropic.

El director ejecutivo de Anthropic, Dario Amodei, declaró públicamente que no podía «en buena conciencia» permitir que la tecnología de su empresa se utilizara para la vigilancia masiva o para controlar sistemas de armas autónomos de forma independiente.

Las dos empresas querían lo mismo, pero solo una de ellas fue penalizada por ello

La diferencia parece residir en la implementación, no en los principios. Mientras que Anthropic buscaba un lenguaje contractual legalmente vinculante, OpenAI se basa en una combinación de protección contractual, medidas de seguridad técnicas y supervisión de personal.

Escepticismo de los Expertos

Varios expertos son críticos con el desarrollo. Heidy Khlaaf, directora técnica de Trail of Bits, advierte que la transición de prohibiciones explícitas a un enfoque más discrecional y basado en la legalidad podría tener graves consecuencias para la seguridad de la IA, con riesgos de sesgos y un mayor daño en contextos militares, según MIT Technology Review.

Jimena Sofía Viveros Álvarez, miembro del órgano asesor de alto nivel de la ONU sobre IA, advierte contra permitir que los sistemas de IA desempeñen un papel en la selección de objetivos militares, independientemente de las capas de seguridad implementadas.

Además, el momento del anuncio de OpenAI, pocas horas después de la exclusión de Anthropic, ha llevado a los expertos a cuestionar si hubo coordinación política en la elección de socios de IA por parte del Pentágono.

Qué Significa Esto para el Futuro

El caso ilustra una creciente tensión en la industria de la IA: ¿Cómo equilibrar los intereses comerciales con las obligaciones éticas frente a la presión estatal? El acuerdo de OpenAI demuestra que es posible llegar a un compromiso con el Pentágono, pero también plantea interrogantes sobre si tales compromisos son más el resultado de tácticas de negociación que de diferencias principiales reales entre las empresas.

Que el propio Altman calificara el proceso de «definitivamente apresurado» da pocas razones para suponer que todas las implicaciones han sido consideradas a fondo.