Un hilo en r/singularity está explotando ahora mismo, y no sin razón. En una entrevista con CBS, el CEO de Anthropic, Dario Amodei, confirmó algo que muchos sospechaban desde hace tiempo: el ejército no utiliza el mismo Claude con el que tú y yo chateamos. Según el propio Amodei, la versión militar está una o dos generaciones por delante de lo que está disponible para el público, y ya ha «revolucionado y acelerado radicalmente» lo que el ejército estadounidense puede hacer. Añadió que esto es solo el comienzo de lo que han implementado.

Es bastante para asimilar.

Estamos hablando de una brecha de capacidad de IA entre el ejército y el resto de nosotros que podría ser tan significativa como un cambio generacional.

Pero la cosa no termina ahí. La historia ya ha dado un giro dramático. Anthropic obtuvo un contrato de 200 millones de dólares con el Pentágono en julio de 2025, y Claude es, al parecer, el único modelo de IA aprobado para sistemas clasificados del DoD al más alto nivel (Nivel de Impacto 6). Hasta aquí, todo bien.

El problema es que el Pentágono quería más. El Departamento de Defensa presionó para eliminar las dos líneas éticas no negociables de Anthropic: no a las armas totalmente autónomas, no a la vigilancia masiva de sus propios ciudadanos. Cuando Anthropic se negó a ceder, el Secretario de Defensa Pete Hegseth fijó una fecha límite estricta: el 27 de febrero de 2026. Cuando la fecha límite pasó sin que Anthropic cediera, la compañía fue designada oficialmente al día siguiente como un «riesgo para la seguridad nacional en la cadena de suministro». Esto significa, en la práctica, que los contratistas militares tienen prohibida la actividad comercial con Anthropic.

Amodei ha calificado esto de «retaliatorio y punitivo» — es decir, vengativo y punitivo. Y es difícil no ver su punto.

Esto es interesante por varias razones. En primer lugar, confirma que ya existe una brecha real en la capacidad de la IA entre lo que el ejército tiene acceso y lo que el público ve. En segundo lugar, el conflicto demuestra que las políticas éticas internas de las empresas de IA ahora se enfrentan directamente al poder estatal — y que hay consecuencias reales por resistir. En tercer lugar, el caso de Anthropic es un ejemplo temprano de lo que podría convertirse en un debate mucho más amplio: ¿Quién decide realmente para qué se pueden usar los modelos de IA cuando la seguridad nacional está en juego?

Recuerde que estas son señales tempranas de discusiones comunitarias e informes preliminares — pero las señales apuntan en una dirección clara: la lucha por el control de la IA militar ya no es teórica. Está ocurriendo ahora.