La inteligencia artificial militar ha sido durante mucho tiempo un tema en los círculos de política de defensa, pero ahora imágenes de demostración concretas y documentos del Pentágono muestran cómo se pretende utilizar realmente la tecnología, no solo en teoría, sino en la planificación operativa.

Los chatbots entran en el centro de mando

Palantir, la controvertida empresa de tecnología de datos con profundas raíces en la inteligencia y defensa estadounidense, está demostrando, según Wired, sistemas donde los chatbots de IA pueden usarse para analizar datos de inteligencia y proponer opciones de acción militar concretas. Entre los modelos destacados se encuentra Claude de Anthropic, uno de los modelos de lenguaje grandes más utilizados comercialmente en la actualidad.

Los sistemas están diseñados como herramientas de apoyo a la decisión. Esto significa que un comandante humano sigue tomando formalmente la decisión final, pero las sugerencias, análisis y prioridades provienen de un sistema de IA que procesa muchos más datos de los que cualquier humano podría manejar en poco tiempo.

Una máquina, sin sangre y sin moralidad ni mortalidad, no puede comprender el significado de quitar o mutilar una vida humana.
La IA planifica la guerra: Así usará Palantir los chatbots en el Pentágono

El núcleo del campo minado ético

El núcleo del debate no se trata solo de la capacidad técnica, sino de quién asume la responsabilidad moral y legal cuando algo sale mal.

Eticistas y organizaciones de derechos humanos han advertido durante mucho tiempo sobre lo que se denomina una brecha de responsabilidad: cuando una máquina propone un objetivo y un operador humano lo aprueba bajo presión de tiempo, ¿quién es entonces responsable de las bajas civiles? Los marcos existentes en el derecho internacional humanitario (jus in bello) presuponen que un ser humano identificable puede ser considerado responsable, lo que resulta difícil de aplicar cuando la decisión se delega parcialmente a un algoritmo.

El investigador y eticista Robert Sparrow ha señalado que esta condición fundamental de responsabilidad corre el riesgo de ser socavada por sistemas autónomos y semiautónomos.

La IA planifica la guerra: Así usará Palantir los chatbots en el Pentágono

Sesgo de automatización — El peligro oculto

Aunque los sistemas están diseñados para apoyar a los tomadores de decisiones humanos, está bien documentado que las personas en situaciones de alto estrés tienden a confiar ciegamente en lo que sugiere la máquina. Este fenómeno — el sesgo de automatización — es particularmente preocupante en contextos militares donde la ventana de tiempo para la decisión puede medirse en segundos.

Investigaciones citadas por Wired sugieren que esto no es un riesgo hipotético, sino una debilidad cognitiva bien documentada que se amplifica bajo presión. La consecuencia es que el 'paso de aprobación' humano formal puede, en la práctica, volverse más simbólico que real.

Cuando la máquina sugiere y el humano confirma bajo presión de tiempo, ¿es realmente el humano quien decide, o solo un sello de goma?

Relevante para Noruega y la OTAN

Noruega no es un espectador en este debate. Como aliado de la OTAN, las fuerzas noruegas forman parte de una alianza donde los sistemas y doctrinas estadounidenses establecen el estándar. Si el Pentágono introduce el apoyo a la decisión impulsado por IA en la planificación operativa, afectará cómo se planifican y ejecutan las operaciones conjuntas, incluso con participación noruega.

El Ministerio de Defensa ha aumentado significativamente las asignaciones para tecnología de defensa en los últimos años, y la OTAN ha adoptado principios para el uso responsable de la IA en operaciones militares. Sin embargo, hay un trecho entre los principios generales y la regulación concreta de qué sistemas de IA pueden usarse realmente y bajo qué condiciones.

Expertos en ética, incluido el Relator Especial de la ONU Christof Heyns, han argumentado que las decisiones sobre quitar vidas nunca pueden ni deben delegarse completamente a las máquinas, por sofisticadas que sean.

La línea entre el apoyo y la autonomía

Las imágenes de demostración de Palantir, según Wired, muestran sistemas que se encuentran en una zona gris: no son completamente autónomos, pero moldean el espacio de decisión de manera tan poderosa que es legítimo cuestionar si el control humano es real. Las autoridades de protección de datos de varios países europeos ya han señalado que los modelos de 'human-in-the-loop' pueden ofrecer una falsa seguridad si el elemento humano se debilita estructuralmente por la presión del tiempo y la sobrecarga de información.

La pregunta que queda sin respuesta —y a la que ni Palantir ni el Pentágono han dado una respuesta satisfactoria— es: ¿Cuál es el umbral para que las propuestas de IA sean 'suficientemente buenas' para ser aprobadas, y quién establece ese umbral?