Distinguir lo natural de lo artificial no es un reto del futuro: es ya una necesidad del presente. La irrupción de la Inteligencia Artificial (IA) ha cambiado las reglas del juego y se ha colado en cada rincón de la vida cotidiana, a menudo sin que los ciudadanos sean ni siquiera conscientes. También ha llegado a los tribunales, donde cada vez resulta más imprescindible acreditar que las pruebas sonoras no han sido creadas o alteradas por una IA. Los jueces están reforzando sus criterios de admisión, exigiendo que las grabaciones vengan acompañadas de un análisis pericial que garantice su autenticidad, integridad y cadena de custodia.

Según datos de Lazarus Technology, el 98% de las pruebas digitales que se presentan en los procedimientos judiciales en España incluyen registros de voz, ya sean notas de WhatsApp, llamadas grabadas o mensajes de voz. En apenas una década han pasado de ser un elemento accesorio a convertirse en la prueba fundamental de muchos procesos. Al mismo tiempo, la proliferación de audios falsificados mediante clonación de voz y deepfakes —vídeo, imagen o audio sintético— basados en IA ha disparado el fraude y los intentos de manipulación, obligando a reforzar el trabajo de los laboratorios forenses.

El caso del exministro de Transportes José Luis Ábalos, su exasesor Koldo García y el exsecretario de Organización del PSOE Santos Cerdán ilustra a la perfección este desafío. Tras la entrega al Tribunal Supremo del informe de la Unidad Central Operativa (UCO) de la Guardia Civil que derivó en la prisión provisional de Cerdán, su defensa cuestionó la autenticidad de ocho grabaciones en las que, presuntamente, se escucha al exdirigente socialista hablar de comisiones ilegales ligadas a contratos de obra pública.

El magistrado instructor, Leopoldo Puente, encargó una pericial para determinar su autenticidad. El Servicio de Criminalística del Instituto Armado concluyó que los audios, incautados en dispositivos requisados a Koldo, no habían sido manipulados y, por tanto, podían incorporarse al procedimiento como prueba válida.

Los metadatos son la clave

La sofisticación de la IA ha ido evolucionando, y el oído humano es incapaz de distinguir qué audios han sido manipulados o creados artificialmente, y cuáles no. Hay que recurrir a un análisis forense. La clave está en los metadatos de los archivos, que son su ADN, lo que muestra su origen y, por tanto, autenticidad.

Éstos permiten ver en qué dispositivo fueron grabados los audios —o si efectivamente parten de una inteligencia artificial—, la fecha o el software. Incluso puede darse el caso de que se detecten señales de edición, pero que aún así la grabación sea auténtica. No es lo mismo algo editado que algo falso, pero en todo caso, sin un origen claro, la prueba pierde valor judicial.

Entre los indicios más habituales a la hora de detectar señales de manipulación en un audio figuran una entonación demasiado uniforme o artificial, la presencia de pausas mecánicas o la ausencia de respiraciones naturales, así como cortes en la pista de audio. También resultan sospechosas una acentuación inconsistente o la aparición de ruidos de fondo incongruentes con el entorno en el que supuestamente se registró la grabación.

"Lo que antes era un complemento ahora es la prueba estrella en numerosos juicios. El reto no está en la presencia de audios, sino en garantizar su autenticidad y su contextualización ante el aumento de técnicas de manipulación", advierte Manuel Huerta, CEO de Lazarus Technology. A su juicio, el 'caso Koldo' muestra que unas grabaciones no editadas siguen siendo sólidas en sede judicial, pero también que la expansión de los deepfakes obliga a extremar la vigilancia y a consolidar los análisis periciales como escudo frente a la inteligencia artificial.

También alerta de que la manipulación de audios se ha convertido en un negocio criminal. Existen grupos organizados que venden servicios de clonación de voz y generación de grabaciones falsas en foros clandestinos, ya sea como producto aislado o dentro de paquetes de fraude que combinan phishing, correos fraudulentos y audios deepfake. La mezcla de herramientas automatizadas con ingeniería social permite ejecutar estafas cada vez más sofisticadas, lo que eleva la urgencia de reforzar los controles judiciales.