"La IA generativa es un gran truco. Pero su aplicación en la ciberseguridad es inmediata, porque se dirige a los principales problemas a los que nos enfrentamos: la gran cantidad de amenazas, la dificultad de distinguir las que son reales de las que no y la escasez de talento". Con este discurso comenzó Héctor Sánchez Montenegro, de la National Technology Office de Google Cloud Iberia, su intervención en el VI Congreso Internacional de IA, que destinó una mesa de debate precisamente a abordar ese tema: la relación entre la IA y la ciberseguridad.

Sánchez participó en el debate, que estuvo moderado por Lorenzo Martínez, de la consultoría Securízame, junto con Gonzalo Salas Claver, Senior Manager IT Legal Advisory en SIAD y Ramón M. Andarias Estevan, Jefe del Departamento de Relaciones Institucionales de Suma Gestión Tributaria. "La IA no es una moda. Y ser puede ser protagonista del cambio que está suponiendo. Porque el futuro pasa porque los profesionales de la ciberseguridad aumenten sus capacidades con esta tecnología", aseguró.

Por su parte, Andarias quiso profundizar en cuáles pueden ser sus aplicaciones prácticas. Según explicó, en Suma Gestión Tributaria se utiliza actualmente para detectar nuevas construcciones e interpretar imágenes aéreas, por un lado, y para realizar una lectura cognitiva de documentos, por otro. "Pero para hacerlo necesitamos una determinada información: datos tributarios, personales y económicos", comentó Andarias, al tiempo que detalló que esto se traduce en más eficiencia, más seguridad y más servicios.

Pero, ¿cuáles son las consecuencias legales de un mal uso de la IA? "No hay una ley tipificada que contemple sanciones. Así que cuando se apruebe el papel de la Agencia Española de Supervisión de la Inteligencia Artificial deberá ser el de realizar una labor de concienciación y divulgativa entre los ciudadanos. Y en su momento ya llegará ese régimen sancionador", expresó Salas.

Martínez, que se encargaba de moderar la charla, quiso también lanzar una reflexión para iniciar un debate: "Personalmente si cojo un avión prefiero que lo pilote un piloto de Iberia con 55 años y 30.000 horas vuelo antes que una IA, aunque ésta haya sido entrenada por decenas de pilotos. Pero mi pregunta es, ¿qué responsabilidad hay que darle a cada uno en el caso potencial de que Google saque una IA orientada al pilotaje de trenes o aviones y ocurra un accidente?".

"Bueno, seguramente los pobres pasajeros de Germanwings hubiesen preferido que su piloto hubiera sido una IA", le replicó Salas. "Todo tiene sus riegos, pero está claro que hay un debate sobre quién debe ser el responsable si la IA tiene un accidente. A día de hoy no tengo una respuesta, pero cuanto más disruptivo sea un tema más hay que acudir al principio general. Así que yo pediría responsabilidad en primer lugar a las personas con quienes he tenido una relación contractual. Pero es cierto que todo esto es nuevo, y la UE está trabajando aún en un reglamento de responsabilidad civil de IA", concluyó el abogado.

ORGANIZA
PATROCINA