En resumen
- OpenAI ha firmado un acuerdo con el Pentágono para suministrar IA a redes militares clasificadas, en colaboración con Amazon Web Services.
- El acuerdo se produjo después de que Anthropic se negara a permitir que los militares usaran su IA sin restricciones éticas, y fuera calificada como un "riesgo para la cadena de suministro".
- En enero de 2026, OpenAI actualizó sus directrices y eliminó la prohibición de uso militar y relacionado con la guerra.
- La compañía ha establecido tres "líneas rojas", incluida la prohibición de su uso para vigilancia masiva y sistemas de armas autónomos.
En un momento en que la inteligencia artificial influye cada vez más en las operaciones militares, OpenAI ha dado un paso significativo en el mundo de la defensa. La compañía ha llegado a un acuerdo con el Departamento de Defensa de EE. UU. (Pentágono) para proporcionar capacidades de IA tanto a sistemas militares clasificados como no clasificados, un desarrollo que suscita un debate considerable.
Del uso civil al militar
Tan recientemente como en enero de 2026, OpenAI actualizó sus directrices de usuario, eliminando una prohibición explícita anterior contra el uso de la tecnología para "fines militares y relacionados con la guerra". Sin embargo, la compañía mantuvo la prohibición sobre el desarrollo y uso de armas. Un portavoz de OpenAI declaró a los medios que "los fines de seguridad nacional que son consistentes con nuestra misión" ahora están permitidos, según MIT Technology Review.
En marzo de 2026, quedó claro que OpenAI había establecido una asociación formal con Amazon Web Services (AWS) para entregar modelos de IA a las agencias de defensa y gubernamentales de EE. UU. Esto marca el primer paso de la compañía en el trabajo militar clasificado.
Un humano sigue en el ciclo de decisión, pero la IA realiza un trabajo que antes tomaba días de análisis, a una escala que ninguna campaña anterior ha igualado.

La salida de Anthropic abrió la puerta a OpenAI
El trasfondo del acuerdo es en parte un conflicto entre el Pentágono y la empresa de IA Anthropic. El ejército había utilizado el modelo Claude de Anthropic para tareas como la identificación de objetivos, evaluaciones de inteligencia y simulación de escenarios de campo de batalla en la planificación de ataques aéreos contra Irán, esto según información reportada por MIT Technology Review, citando medios estadounidenses.
Cuando Anthropic se negó a permitir el uso militar irrestricto de su IA —particularmente relacionado con la vigilancia masiva y los sistemas de armas autónomos—, el Pentágono supuestamente calificó a la compañía como un "riesgo para la cadena de suministro" y rescindió el contrato. OpenAI se convirtió entonces en uno de los actores a los que recurrió el Pentágono.
Es importante subrayar que los detalles concretos del contrato de Anthropic y las operaciones específicas no han sido confirmados oficialmente por el Pentágono o Anthropic, y deben tratarse con precaución crítica de la fuente.

¿Para qué se puede usar realmente la tecnología?
OpenAI precisa que los modelos se ejecutarán en servidores basados en la nube controlados por la propia empresa, no directamente integrados en sistemas de armas o equipos militares. Esto se describe como una medida de seguridad contra armas totalmente autónomas.
Basándose en aplicaciones conocidas de sistemas de IA similares en contextos militares, los expertos señalan una serie de usos potenciales: análisis de grandes volúmenes de datos para identificar y priorizar objetivos, evaluación de inteligencia y planificación de operaciones, simulación de escenarios de campo de batalla, ciberseguridad y tecnología de defensa de drones.
Aaron McLean, analista de seguridad nacional de CBS News, describe la situación: "Ahora hay muchos más datos de los que cualquier sala de analistas podría procesar en los plazos relevantes. Los algoritmos de IA los filtran para construir paquetes de objetivos, asignar activos de ataque y evaluar daños, casi instantáneamente."
El problema del doble uso
Investigadores y expertos enfatizan que las herramientas comerciales de IA son tecnologías de "doble uso", es decir, tecnología que puede utilizarse tanto para fines civiles como militares. Steve Feldstein, investigador principal de Carnegie Endowment for International Peace, señala que tales herramientas tienen "fines de inteligencia y vigilancia, y potencialmente también fines relacionados con operaciones letales", según MIT Technology Review.
Esto plantea preguntas fundamentales sobre hasta qué punto las empresas privadas de IA deberían tener el poder de definir los límites del uso de la tecnología en situaciones de guerra, y si las "líneas rojas" de las propias empresas son garantías suficientes.
Por ahora, hay poca información disponible públicamente sobre cómo y en qué operaciones se utilizará realmente la tecnología de OpenAI. El acuerdo es controvertido, y el debate sobre la ética y la responsabilidad en el uso militar de la IA está lejos de resolverse.
