España

Así atrapó la Policía al pedófilo que usaba IA para crear imágenes de "extrema dureza” de menores abusadas 

Imagen del pedófilo detenido (Policía Nacional).

Imagen del pedófilo detenido (Policía Nacional).

Llevaba actuando desde 2011. Se paseaba por la red con impunidad, compartiendo contenido pedófilo por esos rincones oscuros de internet a los que, si no eres uno de los suyos no puedes acceder. El pasado mes de noviembre la Policía Nacional daba por fin con él.

Se trata de la primera detención de un pedófilo en España que utilizaba inteligencia artificial para crear imágenes de menores manteniendo relaciones sexuales. Llevaban detrás de él desde principios de verano de 2022. Durante las batidas en la red que de manera contínua realiza la Policía, se detectó una conexión sospechosa en una vivienda de Valladolid. Alguien estaba compartiendo material de abuso infantil mediante redes P2P (ordenadores conectados entre sí creando una red propia).

En ese momento la maquinaria policial se puso a trabajar a pleno rendimiento. Obtuvieron una dirección IP que los llevó hasta un domicilio donde vivían varias personas. Una de ellas era el delincuente. Tras meses de larga investigación, con el visto bueno del juez, pudieron cercar al hombre, que finalmente fue detenido en la calle mediante el despliegue de un operativo policial. 

“Cuando vimos las imágenes algo no nos cuadraba”, dice el jefe del grupo de investigación que lo detuvo a El Independiente. En su habitación, este hombre guardaba “ingente” cantidad de material pedófilo. Hasta cuatro terabytes de información. Archivos que, en una primera revisión, llegaban hasta 2011, aunque no se descarta que en el marco del proceso puedan aparecer fechas anteriores. Durante el registro los agentes intervinieron dos ordenadores de sobremesa y tres discos duros.

Extrema dureza

Los agentes que se dedican a rastrear la web, y en especial la dark web, están acostumbrados a encontrarse de todo. Asesinatos, decapitaciones, venta de armas, de personas y, sobre todo, pornografía infantil. El grupo de investigación de la Policía de Valladolid está más que curtido en estas batallas. Pero este caso les perturbó especialmente.

La extrema dureza de las imágenes, la corta edad de las menores y el tamaño de los órganos y juguetes “desproporcionados” que aparecían es lo que no les “cuadraba”. Todo parecía real, no eran simulaciones hechas con ordenador. Las caras, los cuerpos, las facciones. Todo como lo que habían visto antes, pero a la vez todo mucho más extremo, como si no pareciese de este mundo.

El análisis pormenorizado de los archivos y los vídeos encontrados, además del material informático que el detenido guardaba en su habitación, llevó a los agentes a descubrir que las imágenes habían sido creadas con inteligencia artificial. Era la primera vez que en España se detenía a un pedófilo que utilizase estas herramientas.

“Utilizaba un programa donde describía lo que quería y este generaba las imágenes”. Este tipo de aplicaciones, de código abierto, es similar al que utiliza GPT-3, una herramienta de reciente actualidad. La inteligencia artificial luego creaba las posturas, gestos, color de pelo, miembros masculinos o edad, entre otros factores, usando imágenes reales que encontraba por la web, incluido el internet profundo a través de la red Tor.

Cabría la duda de si, al no ser imágenes reales, al no haber víctimas de violaciones y abusos si no que se trata de recreaciones con inteligencia artificial, los archivos localizados serían constitutivos de delitos. “El fiscal ha dejado claro que sí, que claro que es delito”, apuntan las fuentes de la investigación consultadas.

Peligros

“Aunque la inteligencia artificial tiene muchos beneficios, hay que tener claro que también tiene peligros. Y este hemos visto que es uno de ellos”, apunta el jefe del grupo de la Policía. Además se abre la puerta a que se investiguen otros tipos penales.

“Si las imágenes están tomadas en la red, por mucho que sean de licencia libre, su propósito inicial no era el de la pornografía infantil. Podríamos estar hablando, además, de una vulneración de protección de datos por la normativa de la Unión Europea o de los derechos de autor. Hay una preocupación creciente entre los artistas por lo que se puede estar haciendo con su material”, explica el jefe de la operación.

Algunos medios especializados ya han advertido que muchas aplicaciones de inteligencia artificial, al beber de todo internet, han incluido entre sus bases de datos imágenes de pornografía infantil o incluso propaganda terrorista o yihadista, como explicó Business Insider en este reportaje

El estudio más en profundidad de la inmensa cantidad de información intervenida en Valladolid podrá despejar algunas de estas cuestiones y el alcance del material en la red. O por ejemplo si entre las caras de las menores algún padre podría haber reconocido a su propia hija. “Si por ejemplo hay alguna marca o detalle muy particular podría pasar, sí”.

Te puede interesar

Comentar ()