El conflicto entre la empresa de IA Anthropic y el Departamento de Defensa de EE. UU. (DoD) no se trata solo de un contrato. Se está convirtiendo en una prueba de fuego para toda la cuestión de quién decide sobre la inteligencia artificial militar: las empresas tecnológicas que la construyen o las autoridades que quieren usarla.
El núcleo del desacuerdo
El asistente de IA de Anthropic, Claude, está en el punto de mira después de que la empresa exigiera cláusulas contractuales que prohíban el uso del modelo en dos escenarios específicos: la vigilancia masiva de ciudadanos estadounidenses y los sistemas de armas autónomos que carecen de lo que la empresa denomina «juicio y control humano apropiados al contexto».
El Pentágono, por su parte, rechaza las exigencias por considerarlas excesivamente intrusivas. El Departamento de Defensa argumenta que tales condiciones interfieren con las realidades operativas y las complejidades legales asociadas con las misiones militares, según TechCrunch.
«Los sistemas de IA de frontera simplemente no son lo suficientemente fiables como para impulsar armas totalmente autónomas» — Dario Amodei, CEO de Anthropic

¿Qué dice el Pentágono?
El Departamento de Defensa subraya que ya existen marcos legales y políticos que prohíben precisamente las cosas que preocupan a Anthropic. El portavoz del Pentágono, Sean Parnell, ha declarado, según TechCrunch, que el departamento no tiene interés en utilizar la IA para la vigilancia masiva o para desarrollar armas autónomas que operen sin intervención humana, y que esto ya está prohibido por ley y por directrices internas.
La Directiva 3000.09 del DoD, actualizada por última vez en enero de 2023, regula la autonomía en los sistemas de armas y define categorías basadas en el papel del operador humano en la selección y el ataque de objetivos. El jefe de Investigación e Ingeniería, Emil Michael, lo formuló así: «En cierto nivel, hay que confiar en que los militares harán lo correcto.»

Amplio apoyo a Anthropic
La postura de Anthropic ha recibido apoyo de sectores inesperados. El CEO de OpenAI, Sam Altman, ha respaldado el punto de vista, y cerca de 500 empleados de OpenAI y Google firmaron una carta abierta apoyando la demanda de Anthropic de garantías contractuales más sólidas, según el análisis del caso de TechCrunch.
Esta no es una postura marginal en la industria. Refleja una creciente preocupación entre los desarrolladores de IA de que sus modelos puedan ser utilizados de maneras que violen principios éticos fundamentales.
Expertos: «Brecha de responsabilidad» es el problema real
Detrás del conflicto comercial subyacen cuestiones éticas más profundas que filósofos y juristas de derecho de guerra han discutido durante años. El filósofo Robert Sparrow ha acuñado el término «brecha de responsabilidad» — situaciones en las que los sistemas autónomos causan daño sin que existan agentes morales identificables a quienes responsabilizar.
La campaña «Stop Killer Robots» señala dos riesgos centrales: que las máquinas no puedan reconocer a los humanos como humanos —lo que llaman «deshumanización digital»— y que el sesgo algorítmico pueda amplificar las desigualdades existentes si se incorpora a los sistemas de armas.
El Vaticano se ha involucrado en el debate. Monseñor Pacho argumenta que eliminar el elemento humano de las decisiones letales elimina «la capacidad humana única de juicio moral» y «reduce peligrosamente el umbral para el conflicto». El Papa Francisco ha abogado explícitamente por la prohibición de las armas autónomas.
EE. UU. se opone a las regulaciones internacionales
En el ámbito internacional, EE. UU. ha adoptado una posición intransigente. En la Convención de la ONU sobre Ciertas Armas Convencionales (CCW), donde los sistemas de armas autónomos han sido un tema central, EE. UU. ha sido, según el material fuente de TechCrunch, «abiertamente opuesto a establecer tales medidas, alegando que son barreras para la innovación».
Esta resistencia a las normas internacionales vinculantes hace que la lucha interna entre las empresas tecnológicas y el Pentágono sea aún más importante: en ausencia de normas de derecho internacional, las cláusulas contractuales privadas pueden ser lo más cercano a una regulación real.
¿Quién decide?
La disputa entre Anthropic y el Pentágono es sintomática de un juego de poder más amplio: las empresas de IA poseen la tecnología, pero los estados poseen los contratos y la autoridad legal. Ninguna de las partes ha cedido todavía, y el resultado podría sentar un precedente sobre cómo se regula —o no se regula— la IA militar en los años venideros.
