Uno de los choques más fundamentales entre la industria privada de IA y el poder militar estadounidense está a punto de tomar forma en un tribunal. Según MIT Technology Review, la compañía de IA Anthropic planea demandar al Departamento de Defensa de EE. UU. (Pentágono) en un conflicto que trata sobre qué tipo de uso una empresa de tecnología civil puede realmente negar al estado.

Prohibiciones Claras en el Marco Ético de Anthropic

El producto estrella de Anthropic, Claude, se rige por un marco ético detallado llamado "Claude's Constitution" — un documento de 84 páginas y 23.000 palabras en su última versión de enero de 2026. El documento no solo describe reglas, sino también las razones detrás de ellas, y según la compañía, representa una transición de la alineación de IA basada en reglas a una basada en el razonamiento.

Centrales en este marco son las prohibiciones absolutas: Claude no debe usarse para diseñar armas de destrucción masiva, llevar a cabo ciberataques a gran escala, generar imágenes de abuso infantil — o socavar la supervisión humana de los sistemas de IA.

Anthropic también ha declarado explícitamente que la compañía no permitirá que su tecnología sea utilizada por autoridades públicas en sistemas de armas autónomos o para vigilancia masiva. Es este punto el que ahora parece estar en el centro del conflicto con el Pentágono.

Anthropic demandará al Pentágono: Disputa sobre el uso militar de la IA

El Departamento de Defensa Tiene su Propia Ética de IA

No es que el Pentágono opere sin directrices éticas para la IA. El Departamento de Defensa adoptó ya en febrero de 2020 cinco principios fundamentales para el uso militar de la IA: los sistemas deben ser responsables, equitativos, rastreables, confiables y controlables. Los principios están arraigados, entre otras cosas, en la Constitución de EE. UU., el derecho internacional humanitario y los tratados internacionales.

Pero donde la ética de Anthropic está desarrollada para la utilidad civil general, la estrategia del DoD está adaptada a situaciones militares de alto riesgo donde la "confiabilidad" puede significar la diferencia entre la vida y la muerte. Esta diferencia fundamental en contexto y propósito hace que los dos marcos no puedan conciliarse fácilmente.

El intento de una empresa privada de IA de negar al estado el acceso a la tecnología plantea preguntas que no tienen respuestas legales establecidas
Anthropic demandará al Pentágono: Disputa sobre el uso militar de la IA

La Política de Seguridad Bajo Presión

Al mismo tiempo que Anthropic prepara una demanda para proteger sus límites éticos externamente, informes recientes muestran que la compañía ha ajustado internamente su llamada Política de Escalado Responsable (RSP) — su marco voluntario para gestionar riesgos catastróficos en sistemas avanzados de IA. La tercera versión de la RSP se lanzó en febrero de 2026.

Anteriormente, Anthropic se comprometía a no entrenar nuevos sistemas de IA a menos que se implementaran medidas de seguridad adecuadas. La política actualizada ahora permite que las acciones de los competidores y la presión del mercado influyan en este principio — lo que ha provocado críticas de que la compañía está debilitando sus propios compromisos de seguridad bajo presiones económicas y políticas.

Anthropic quiere detener al Pentágono — pero cede ante el mercado

Esto crea una paradoja: La compañía lucha en el ámbito público por límites más estrictos para el uso militar de la IA, mientras que internamente se mueve hacia estándares de seguridad más flexibles.

Contexto Más Amplio: Las Preguntas Más Importantes de la IA de Nuestro Tiempo

MIT Technology Review se refiere al caso como parte de lo que la junta editorial describe como los diez problemas más importantes en IA en este momento. Esto es una señal de que el conflicto entre los actores comerciales de IA y los intereses de seguridad estatales no es un incidente aislado, sino una tensión estructural que caracterizará a la industria en los próximos años.

Los detalles concretos sobre la base legal de la demanda anunciada por Anthropic, y qué demandas específicas ha hecho supuestamente el Pentágono, aún no se han hecho públicos. Las afirmaciones sobre los planes de demanda provienen de la cobertura de MIT Technology Review y no han sido confirmadas independientemente por 24AI.