OpenAI Entra en el Sector de Defensa
OpenAI ha formalizado un acuerdo con el Departamento de Defensa de EE. UU. a través de su subsidiaria OpenAI Public Sector LLC. El contrato, del que informa TechCrunch, tiene un marco total de 200 millones de dólares y está estructurado como un "other transaction agreement" de un año, centrado en desarrollar capacidades prototipo en IA de vanguardia para las necesidades de seguridad nacional.
El contrato cubre áreas de uso que van desde funciones administrativas —como mejorar el acceso a la atención médica para los soldados y sus familias— hasta el fortalecimiento de la ciberdefensa y la optimización de los procesos de adquisición. La fecha estimada de finalización del trabajo está fijada para julio de 2026, según la información contractual disponible.
Altman Promete Límites de Seguridad Concretos
El CEO de OpenAI, Sam Altman, subraya que el acuerdo no está exento de limitaciones. Según TechCrunch, afirma que el contrato contiene dos principios de seguridad fundamentales: una prohibición explícita de su uso para la vigilancia masiva doméstica y un requisito de que los humanos siempre asuman la responsabilidad al usar la fuerza, lo que en la práctica excluye los sistemas de armas totalmente autónomos.
Altman habría confirmado que estos principios están consagrados directamente en el texto del contrato y que el Departamento de Defensa de EE. UU. ha aceptado las «líneas rojas» de OpenAI como parte de los términos.
OpenAI mantiene el control sobre qué mecanismos de seguridad se implementan, en qué regiones se operan los modelos y para quiénes se ponen a disposición.

Barreras Técnicas para Prevenir el Mal Uso
Además de las prohibiciones contractuales, se han incorporado limitaciones técnicas en la propia arquitectura de despliegue. Los modelos se ejecutarán exclusivamente en entornos de nube y no se integrarán en los llamados «sistemas de borde» como drones o aviones de combate. Esto tiene como objetivo evitar la conexión directa con plataformas autónomas en combate.
OpenAI también planea ubicar a sus propios ingenieros dentro de equipos gubernamentales que trabajan en proyectos clasificados. El propósito es asegurar que los modelos se utilicen de acuerdo con los protocolos de seguridad y las directrices éticas, afirma la compañía.

El Conflicto de Anthropic como Telón de Fondo
El momento del anuncio de OpenAI no es casual. Según la base de investigación, su rival Anthropic se ha visto recientemente envuelto en un conflicto abierto con el Pentágono tras negarse a levantar sus propias restricciones contra el uso de sus modelos Claude para la vigilancia masiva y las armas autónomas. El resultado habría sido que Anthropic fue incluido en la lista negra de contratos federales por el presidente Donald Trump.
Este curso de los acontecimientos ilustra la creciente tensión entre los marcos éticos de las empresas de IA y las demandas gubernamentales de flexibilidad en el contexto de la seguridad nacional. OpenAI parece haber elegido una estrategia de compromiso, pero en sus propios términos.
Críticos Advierten sobre Límites Difusos
A pesar de las garantías declaradas, hay motivos para plantear preguntas críticas. Una preocupación central entre los grupos de vigilancia es lo que se denomina «mission creep» (expansión de la misión), es decir, que las herramientas de IA desarrolladas originalmente para fines administrativos o defensivos puedan adaptarse gradualmente a operaciones más ofensivas.
Cabe señalar que OpenAI ya eliminó silenciosamente la formulación de prohibición explícita contra «militar y guerra» de sus términos de uso en enero de 2026. La política revisada aún prohíbe el uso para «dañar a otros» o «desarrollar armas», pero la cláusula de prohibición general ha desaparecido. Los críticos creen que esto prioriza el margen de maniobra legal sobre la seguridad real.
La cuestión de si OpenAI puede hacer cumplir realmente sus propias líneas rojas frente a un actor estatal tan grande como el DoD sigue sin respuesta, y actualmente no existe una verificación documentada e independiente de que los mecanismos descritos funcionen como se afirma.
