En resumen
- El Secretario de Defensa Pete Hegseth ha convocado al CEO de Anthropic, Dario Amodei, al Pentágono para discutir el uso militar de Claude
- Según el Wall Street Journal, el ejército estadounidense habría utilizado Claude durante una operación contra el expresidente venezolano Nicolás Maduro
- Anthropic tiene prohibiciones explícitas en sus términos de servicio contra aplicaciones militares, sistemas de armas autónomos y vigilancia masiva
- El Pentágono amenaza con designar a Anthropic como un “riesgo de seguridad en la cadena de suministro”, lo que podría costarle a la empresa lucrativos contratos de defensa
Confrontación al más alto nivel
El Secretario de Defensa de Estados Unidos, Pete Hegseth, ha convocado al fundador y CEO de Anthropic, Dario Amodei, a una reunión en el Pentágono. El tema es el uso militar del modelo de IA Claude, y el ambiente se describe como tenso. Según TechCrunch, Hegseth ha llegado a amenazar con etiquetar a Anthropic como un “riesgo en la cadena de suministro”, una designación que podría tener importantes consecuencias para la capacidad de la empresa de trabajar con las autoridades estadounidenses.
En su esencia, el conflicto gira en torno a una contradicción fundamental: Anthropic ha construido su empresa en torno a estrictas directrices éticas para el uso de la IA, mientras que el Pentágono desea condiciones más flexibles para fines militares.

La operación en Venezuela que desató la crisis
El asunto cobró impulso después de que el Wall Street Journal informara en febrero de 2026 que el ejército estadounidense habría utilizado Claude durante una operación destinada a detener al expresidente venezolano Nicolás Maduro. La conexión supuestamente se realizó a través de la asociación de Anthropic con la firma de análisis de datos Palantir Technologies.
Anthropic misma negó que la empresa hubiera estado involucrada en la planificación de “operaciones específicas” con el Departamento de Defensa. Sin embargo, la empresa confirmó que su acuerdo de uso con el Pentágono está actualmente bajo revisión, particularmente las disposiciones relativas a los sistemas de armas autónomos y la vigilancia masiva interna.
Ningún actor debería tener permitido dictar directrices que vayan más allá de lo que el Congreso ha promulgado.
Estas son, según TechCrunch, las palabras del Director de Tecnología del Pentágono, y ilustran la gravedad que ha alcanzado el conflicto.

¿Qué dicen las propias reglas de Anthropic?
Anthropic se encuentra en una posición inusual entre las grandes empresas de IA: tienen “líneas rojas” explícitas consagradas en sus términos de servicio que prohíben una serie de aplicaciones militares y relacionadas con la vigilancia de Claude.
La empresa opera como una “corporación de beneficio público” (public benefit corporation), una forma societaria que les obliga a tener en cuenta el bien público, no solo el de los accionistas. El marco “Constitutional AI” es una parte central de esto: Claude está entrenado con un conjunto de principios éticos derivados, entre otras cosas, de la Declaración Universal de Derechos Humanos de la ONU.
Contratos en juego
En el verano de 2025, Anthropic, Google, OpenAI y xAI recibieron contratos de defensa por un valor de hasta 200 millones de dólares cada uno para adaptar soluciones de IA generativa para uso militar. Ahora, la parte de Anthropic de estos contratos podría estar en riesgo.
El Director de Tecnología del Pentágono ha sido claro en que las empresas no pueden establecer sus propias condiciones que anulen las decisiones del Congreso. Esto pone a Anthropic en un aprieto: ceder a la presión socavaría el perfil central de la empresa como desarrollador de IA responsable, pero mantenerse firme podría costarles ingresos e influencia significativos.
Una empresa construida sobre la seguridad
Anthropic ha invertido mucho en construir una reputación de seguridad y responsabilidad. En enero de 2025, la empresa fue certificada según la norma internacional ISO/IEC 42001:2023 para sistemas de gestión de IA. También tienen una “Política de Escalado Responsable” con umbrales claros para cuándo debe detenerse el desarrollo del modelo si el riesgo de seguridad se considera demasiado alto.
Dario Amodei mismo ha advertido públicamente que la IA puede “reducir continuamente el umbral para la actividad destructiva”, y ha argumentado que la seguridad de la IA y el alto rendimiento no son contradicciones.
La reunión entre Amodei y Hegseth probablemente será crucial para determinar si Anthropic logra navegar entre sus obligaciones éticas fundamentales y la presión del aparato militar más poderoso del mundo.
