Un paradójico escenario se desarrolla en Washington: mientras el Departamento de Defensa ha arremetido duramente contra la empresa de IA Anthropic, declarándola un riesgo para la seguridad nacional, funcionarios vinculados a la administración Trump estarían ahora animando activamente a las instituciones financieras a adoptar el nuevo modelo de IA de la compañía. Así lo informa TechCrunch.
¿El Pentágono dijo no — el sector financiero recibe luz verde?
Aparentemente sin coordinación interna dentro de la administración, el círculo de Trump habría animado a los bancos a probar el modelo Mythos de Anthropic. Esto ocurre en directa contradicción con la postura oficial del Departamento de Defensa, según TechCrunch.
El DoD clasificó recientemente a Anthropic como un «supply chain risk to national security» — una designación que hasta ahora se había utilizado exclusivamente contra entidades extranjeras. Las consecuencias son graves: se prohíbe al ejército utilizar los modelos de IA de Anthropic, y los contratistas de defensa deben confirmar por escrito que no utilizan la tecnología de la empresa en trabajos para el gobierno.
«Los combatientes de Estados Unidos nunca serán rehenes de los caprichos ideológicos de las grandes empresas tecnológicas» — Secretario de Defensa Pete Hegseth

El núcleo del conflicto: Límites éticos contra el uso militar
La razón de la dramática clasificación no son fallos tecnológicos o vulnerabilidades de seguridad en el sentido tradicional. Se trata de un desacuerdo de principios: Anthropic se negó a conceder al Pentágono acceso a su modelo Claude sin restricciones contra su uso para la vigilancia masiva de civiles y sistemas de armas totalmente autónomos que seleccionan y atacan objetivos sin control humano.
El Pentágono, por su parte, exigió el derecho a utilizar la tecnología para «todos los fines lícitos». El Secretario de Defensa Pete Hegseth afirmó que Anthropic intentaba «poner de rodillas al ejército estadounidense».
El CEO de Anthropic, Dario Amodei, rechaza esta caracterización. Subraya que las preocupaciones de la empresa se refieren a casos de uso generales — no a la toma de decisiones operativas diarias — y que los sistemas de IA no son lo suficientemente infalibles como para concederles plena autonomía.
Los propios abogados de Anthropic han calificado la decisión del DoD de «legalmente insostenible» y han anunciado una batalla legal, afirmando que sienta «un precedente peligroso para cualquier empresa estadounidense que negocie con el gobierno».

Señal caótica para el sector financiero
La aparente falta de coordinación interna en Washington envía señales confusas — sobre todo a los actores del sector financiero que deben lidiar con el riesgo de los proveedores y las expectativas regulatorias.
Los bancos e instituciones financieras están generalmente sujetos a estrictos requisitos de control de proveedores. En Europa y Noruega, se imponen requisitos, entre otros, a través del reglamento DORA (Digital Operational Resilience Act) para que las entidades financieras evalúen el riesgo de los proveedores externos de tecnología crítica — incluida la IA. El hecho de que la tecnología de una empresa sea clasificada como riesgo para la seguridad nacional por un brazo de un gobierno, mientras que otro brazo la recomienda, es un escenario para el cual no existe un protocolo de manejo establecido.
Infraestructura y expansión de Anthropic
A pesar del conflicto con el Pentágono, Anthropic es un actor bien capitalizado y en rápido crecimiento. La empresa utiliza actualmente la potencia de procesamiento de Google (TPUs), Amazon (Trainium e Inferentia) y Nvidia (GPUs). Según la información disponible, Anthropic firmó recientemente una colaboración a largo plazo con Google y Broadcom para hardware de IA especializado, con planes de instalar 3,5 gigavatios de capacidad de cómputo en centros de datos en Nueva York y Texas.
Las inversiones totales en infraestructura de cómputo estadounidense se estiman en alrededor de 50 mil millones de dólares. La empresa también está considerando diseñar sus propios chips de procesador para reducir la dependencia externa.
Los bancos noruegos deberían prestar atención
Para las instituciones financieras noruegas y nórdicas, el asunto es más que un drama interno estadounidense. La elección de un proveedor de IA es hoy una cuestión estratégica y regulatoria. La situación en torno a Anthropic ilustra que incluso las empresas de IA bien establecidas y financiadas de forma privada pueden ser objeto de presión política que afecta directamente a las condiciones de uso en las que se puede confiar a lo largo del tiempo — y que el riesgo del proveedor no se trata solo de la fiabilidad técnica, sino de la posición política de las empresas en sus mercados nacionales.
La fuente de este artículo es TechCrunch (12 de abril de 2026), así como información adicional sobre la clasificación del DoD y la infraestructura de Anthropic de fuentes abiertas.
