La herida abierta en Oriente Medio nos abre una ventana que deja entrever el uso que pueden llegar a tener las nuevas tecnologías en el futuro. En medio del aumento en la intensidad de los bombardeos a la capital iraní, se le ha sumado las últimas declaraciones del almirante Brad Cooper (Comandante de CENTCOM). En un vídeo emitido por la cuenta de CENTCOM, Cooper admite de manera abierta que el ejército de los Estados Unidos utiliza la Inteligencia Artificial para lograr sus objetivos militares con la mayor efectividad posible.

PUBLICIDAD

“Nuestros combatientes están aprovechando una variedad de herramientas avanzadas de IA. Estos sistemas nos ayudan a filtrar grandes cantidades de datos en segundos, de modo que nuestros líderes puedan ignorar el ruido y tomar decisiones más inteligentes con mayor rapidez de la que el enemigo puede reaccionar", asegura el almirante. "Los seres humanos siempre tomarán las decisiones finales sobre a qué disparar y a qué no disparar, y cuándo disparar. Pero las herramientas avanzadas de IA pueden transformar procesos que solían llevar horas y, a veces, incluso días”, añade.

PUBLICIDAD

Son declaraciones impactantes, y ponen de relieve el cada vez mayor uso de estos nuevos modelos tecnológicos, pero no son novedosas. El uso de la IA por parte del ejército estadounidense puede remontarse a la década de los 60, cuando el Departamento de Defensa americano comenzó a entrenar a ordenadores para que imitaran los procesos de pensamiento humano. Se llegó a teorizar que un ordenador tendría que tener el tamaño de Texas para poder acercarse a la capacidad de pensamiento de una persona corriente.

No obstante, ha sido en las operaciones más recientes, como la captura de Nicolás Maduro, cuando el uso de la IA ha sido fundamental. En concreto, se hace uso de la Inteligencia artificial Anthropic y su modelo avanzado Claude. Se ha conformado en base a esta estrategia un modelo de defensa proactiva dependiente enteramente de la capacidad de la IA para predecir movimientos basados en datos y flujos de información masivos.

El 'Project Maven'

Para entender cómo se ha llegado a este punto, es obligatorio mirar la vista atrás, específicamente al Project Maven (oficialmente conocido como Algorithmic Warfare Cross-Functional Team). Iniciado en 2017, este proyecto fue el primer gran esfuerzo del Pentágono para integrar la visión artificial en la guerra.

Originalmente fue diseñado para ayudar a los analistas a procesar la abrumadora cantidad de vídeo capturada por drones en la lucha contra el ISIS. Este programa acabó sentando las bases para el futuro: conformó un algoritmo que pudiera identificar vehículos, personas y tipos de armamento, permitiendo que el militar humano solo tuviera que validar el ataque lo que la máquina ya había detectado.

La declaración de 2023

A medida que la tecnología avanzaba, el vacío legal sobre su uso se hacía más grande. Esto llevó a la creación de la "Declaración Política sobre el Uso Militar Responsable de la Inteligencia Artificial y la Autonomía" en 2023.

Este documento, impulsado inicialmente por Estados Unidos y discutido en cumbres como la REAIM en La Haya (foro internacional que establece las normas éticas y el uso responsable de la inteligencia artificial), busca establecer "barreras de seguridad" morales. La declaración subraya un punto que el vicealmirante B. Cooper repite casi como un mantra: el ser humano debe permanecer en el bucle ("human in the loop").

¿Guerras sin humanos?

A pesar de las promesas de Cooper sobre el control humano, el ritmo de la guerra moderna, con novedades como la guerra robotizada, sugiere una paradoja. Si el enemigo utiliza una IA que decide en milisegundos, esperar a que un humano presione un botón de "confirmar" podría ser visto en el futuro como un error desde el punto de vista táctico. A pesar de todo, la transición de la guerra convencional a esta nueva “guerra algorítmica” parece irreversible.