Entre el 2 y 6 de marzo, tuvo lugar la primera sesión de 2026 del Grupo de Expertos Gubernamentales (GEG) sobre Armas Letales Autónomas (LAWS), celebrada en el marco de la Convención sobre Ciertas Armas Convencionales (CCAC) de la ONU, el principal foro multilateral que aborda hoy en día una cuestión que recorre los ejércitos de todo el mundo. ¿Quién controla la autonomía de la IA y los robots en el uso de la fuerza?

PUBLICIDAD

Un debate que no se ha resuelto y que los hechos apremian para que se solucione. Mientras los delegados discutían posibles modificaciones, el contador de muertes de la guerra de Irán ya estaba en marcha.  El día 28 de febrero, apenas dos días antes del inicio de la reunión de la ONU, el  Wall Street Journal hacía público que Estados Unidos había empleado el modelo de lenguaje Claude, desarrollado por Anthropic, para asistir en la selección de objetivos durante sus ataques contra Irán.

PUBLICIDAD

Más de mil objetivos en las ofensivas conjuntas de Estados Unidos e Israel. Igual que las bases de datos impulsadas por inteligencia artificial Lavender y Gospel, utilizadas por el ejército israelí en Gaza, Claude fue empleado para procesar grandes volúmenes de información y generar recomendaciones de objetivos con gran rapidez. Las sugerencias generadas por el sistema Lavender son revisadas en apenas segundos por personal militar, que luego autoriza los ataques basándose en dichas recomendaciones automatizadas. 

La robotización del campo de batalla se desarrolla en paralelo a la implementación de  inteligencia artificial en los ejércitos. En el frente de batalla de Ucrania hay una franja de terreno en la que los robots desempeñan un papel clave para mantener a raya al enemigo sin cobrarse muchas más vidas. Haciendo trabajos logísticos y automatizando posiciones defensivas.

La IA ya está desplegada en los campos de batalla pero su combinación con la robótica está en una fase primaria. “Nuestros robots ya tienen inteligencia artificial”, asegura Rafael de Solís, director de la División de Robótica de EM&E Group. No es “inteligencia futurista y general”, matiza, sino capacidades concretas: “poder navegar de un punto a otro sin necesidad de operador”, evitar obstáculos con un láser que gira 360 grados, detectar el tipo de terreno y “evitar vuelcos”. También se usa IA “para poder apoyar a nuestros soldados” en la detección de potenciales objetivos cuando el robot porta un sistema de armas. 

El Ejército de Tierra realiza una demostración dinámica que integra sistemas robotizados en el Campo de Maniobras y Tiro 'Álvarez de Sotomayor' en Viator (Almería).
El Ejército de Tierra realiza una demostración dinámica que integra sistemas robotizados en el Campo de Maniobras y Tiro 'Álvarez de Sotomayor' en Viator (Almería). | Marian León / Europa Press

Pero ahí se detiene la automatización. “La doctrina OTAN de nuestro Ejército y de los ejércitos occidentales tiene la inteligencia artificial ética, que significa que no puedes en ningún caso disparar ni tomar una decisión de la propia inteligencia artificial para hacer fuego”, subraya. “Tiene que ser el operador finalmente el que tome la decisión de  que, efectivamente, eso es un objetivo, es un objetivo válido y podemos hacer fuego sobre él. El robot puede seleccionar un blanco y seguirlo –hacer tracking–, pero siempre es el operador el que tiene que tomar finalmente la decisión, valorando el objetivo, como si estuviera disparando".

La dimensión decisiva de la robotización no es solo técnica u operativa, sino ética y legal. “Se están estudiando cuáles son los límites éticos y legales, porque tú puedes robotizar un ejército y seguir manteniendo el control de los militares sobre las máquinas o puedes simplemente dejar que actúen por su cuenta”, Ángel Gómez de Ágreda, coronel del Ejército del Aire y del Espacio en la reserva, especialista en ciberseguridad e inteligencia artificial y autor de Un mundo falaz.

El precedente de los ataques guiados por algoritmos en Gaza es un caso de estudio por todos los expertos. “En los ataques en Gaza, el operador humano tenía 20 segundos para decidir si efectuaba el ataque”, afirma de Ágreda. “Sigue habiendo un humano implicado, pero toda la información le venía del algoritmo”.  La pregunta que lanza el coronel va al corazón del debate sobre las armas autónomas: “¿Qué capacidad tiene el humano en 20 segundos de tomar una decisión informada y coherente de si el ataque hay que hacerlo o no?”. 

No es un asunto menor, está en el centro del desarrollo de la IA, no solo en sus aplicaciones militares. La reciente pelea entre Anthropic -la empresa de inteligencia artificial creadora de Claude- y Donald Trump está motivada por los límites de la IA. El servicio de Anthropic al Departamento de Guerra estadounidense, antes de Defensa, incorpora dos exclusiones éticas que no quiere la administración Trump. Una es prohibir el uso de Claude para vigilancia masiva de ciudadanos americanos, como hace China con sus ciudadanos. Y la segunda: no usar Claude en sistemas de armas letales autónomas, esto es, las que pueden elegir y atacar contra objetivos sin intervención humana en la decisión final. Anthropic se ha resistido a quitar estas dos condiciones y Trump ha roto con la empresa perdiendo miles de millones en contratos. No está claro si OpenAI, que va a sustituir a Anthropic, va a quitar los límites que le pedía la Casa Blanca, pero muchos usuarios han empezado a borrarse de ChatGPT.

Es un dilema ético que se agudiza precisamente en guerras asimétricas, donde el coste político de las bajas propias puede ser más determinante que la depuración de las reglas de enfrentamiento. “En Ucrania ahora mismo son muy conscientes de los problemas éticos, pero son más conscientes de las bajas que tienen”, admite Gómez de Ágreda. “Y cuando es incompatible la ética con las bajas, muchas veces tienes que utilizarlos independientemente de que sean más o menos éticos”, añade. En Rusia las bajas no tienen tanto impacto por el control de Putin de la opinión pública. Además de que ha externalizado parte de sus muertos en el frente al régimen de Corea del Norte.

Un soldado junto a un Droid TW 12.7.
Un soldado junto a un Droid TW 12.7.

Un momento decisivo

Existen campañas de organizaciones civiles internacionales como Stop Killer Robots que presionan a los organismos multilaterales. “Este es un momento crucial, un cambio de paradigma que ocurre ante nuestros ojos. ¿Aceptamos un mundo donde los seres humanos sean reducidos a datos, procesados ​​por máquinas y luego asesinados? Si permitimos que esto suceda sin oposición, habremos aceptado un cambio fundamental: la tecnología se desplegará no para el beneficio de la humanidad, sino para nuestra opresión, control y muerte. Es hora de que nuestros gobiernos establezcan límites legales y éticos para desviar a la humanidad del peligroso camino hacia la matanza automatizada en el que nos encontramos”, aseguran desde Stop Killer Robots.

“Se ha intentado durante muchos años en el seno de Naciones Unidas en Ginebra crear un código ético y legal sobre el uso de armas autónomas”, afirma Gómez de Ágreda. Pero “en el momento que se va a poner en marcha, se da marcha atrás porque sobre todo las principales potencias que las fabrican no quieren que exista”. En paralelo, el campo de batalla se llena de sistemas que toman cada vez más decisiones bajo condiciones de guerra electrónica intensa, comunicaciones interferidas y tiempos de reacción extremadamente cortos.

No tardaremos en saber si el destino del centenar de niñas asesinadas en un colegio de Teherán fue decisión de una IA o si un humano apenas tuvo unos segundos para aprobarlo en mitad de un ataque a gran escala. Puede ser más aterradora la explicación alternativa: que fuera una decisión 100% humana. En cualquier caso, introducir la IA en la guerra es solo responsabilidad nuestra.