Inteligencia Artificial ENTREVISTA | RICARD MARTÍNEZ, EXPERTO EN DERECHOS DIGITALES

"Hay que ser inmisericorde con las 'apps' que vulneran nuestros derechos aprovechando la pandemia"


Ciudades inteligentes, Internet de las cosas, sensores, el 5G… Para Ricard Martínez, director de la Cátedra de Privacidad y Transformación Digital Microsoft Universidad de Valencia, avanzamos a una sociedad donde los datos de los usuarios jugarán un papel fundamental. El próximo viernes, este experto en derechos digitales participará en el III Congreso Internacional de Inteligencia Artificial, que organiza El Independiente, para analizar los límites legales y éticos de la tecnología durante la crisis del coronavirus.

Pregunta.- ¿Cuáles son los mayores riesgos digitales y de la inteligencia artificial (IA) durante la pandemia?

Respuesta.- Analizar esto es complicado. En primer lugar, la inteligencia artificial presenta riesgos éticos y jurídicos bastante evidentes. Es decir, en estos momentos, que estamos en una fase de consolidación de las inteligencias artificiales, continúan los riesgos vinculados a una tecnología que es emergente. A partir del machine learning, una IA puede contribuir a la toma de decisiones, o tomarlas directamente, en procesos automatizados donde el sesgo puede ser determinante en cuanto a discriminatorio.

Toda la información no personal recopilada durante esta crisis será muy útil cuando nos enfrentemos a otra pandemia»

En la pandemia nos movemos en territorios donde el tratamiento de datos afecta al ámbito de la salud y a la movilidad. También en la definición de la correlación de los servicios sociales, los aspectos socioeconómicos y a cualquier otra decisión estratégica, incluida la actuación policial, que sea relevante en la lucha contra la pandemia. Por ello, estos procesos deben ser extremadamente delicados en el cumplimiento normativo y escrupulosos al captar y usar de forma legítima los datos.

En segundo lugar, comparto los valores éticos del grupo de expertos creado por la Comisión Europea para trabajar sobre la ética y la inteligencia artificial. Entre ellos, que las inteligencias artificiales se desarrollen de forma responsable, que se explique cómo funcionan, que se eliminen los sesgos, que se desarrollen estrategias para que la decisión de una IA esté justificada y verificada, etcétera.

P.- ¿Hay aplicaciones que se aprovechan de la pandemia para recopilar más datos que nunca?

R.- No he realizado una investigación específica para determinarlo. Lo cierto es que debemos distinguir dos modelos distintos de aplicaciones. Por un lado están las apps que nacen del sector público, como Radar Covid, o las aplicaciones de los servicios públicos de salud o las que surgirán para la telemedicina, la medicina asistida, la preventiva o para la monitorización de pacientes. Estas herramientas no se desarrollan bajo ningún concepto para la monetización ni para obtener recursos económicos explotando los datos del paciente.

Otra cosa es que dentro de un negocio perfectamente lícito surjan un montón de aplicaciones variadas, como las de ofertas de bienes y servicios o las que te ayudan a hacer la compra, y que traten de monetizar los datos. Es esencial que se verifique que cumplen el Reglamento General de Protección de Datos (RGPD) y se sea estricto e inmisericorde con las que vulneran los derechos de los usuarios aprovechándose de una situación de debilidad y trauma como esta crisis social e individual.

P.- ¿Qué le parecen apps como Radar Covid, que utilizan el bluetooth para tratar de respetar la privacidad de sus usuarios?

R.- Es evidente que se ha desarrollado intentando evitar que se identifique a los usuarios. Me parece una solución que debe garantizar la privacidad de forma óptima. Nunca podemos asegurar que una app es completamente invulnerable. Por tanto, las tareas de mantenimiento, el seguimiento y el control de las garantías de seguridad de Radar Covid tiene que ser permanentes.

P.- ¿A dónde van a parar los datos de Radar Covid y que pasará con ellos cuando termine la pandemia?

R.- Los datos no son personales. La app puede obtener datos relacionados con la localización, la movilidad y la proximidad de los usuarios. Su programación dependerá el tipo de de datos que se guarde para su posterior explotación. Me gustaría que estos datos no personales, pero muy relevantes para la monitorización de la pandemia, se pudieran utilizar en un futuro por el bien común. Deberían estar disponibles para que investigadores, epidemiólogos, analistas matemáticos, expertos de movilidad pudieran elaborar un mapa que sería muy significativo para futuras pandemias.

En el futuro deberíamos desarrollar buenas políticas de prevención basándonos en como incide la movilidad en la propagación de la pandemia del Covid-19 o teniendo en cuenta las condiciones socioeconómicas, la naturaleza de los barrios o el acceso a la cultura. Toda esta información será muy útil cuando tengamos que enfrentarnos a otra pandemia, algo que tarde o temprano podrá suceder.

P.- ¿Quiénes son los más vulnerables a este vuelco de información en este tipo de apps sanitarias?

R.- Se puede afirmar que si Radar Covid cumple con lo que promete, es decir, que es completamente anónima, no habrá usuarios vulnerables por facilitar esa información. Aunque sí nos debería preocuparnos en un futuro el análisis de cualquier tipo de información sanitaria de una persona. Datos como el de haber padecido el coronavirus o haber estado expuesto podría discriminarnos a la hora de acceder al trabajo, o para la contratación de servicios de salud privados o préstamos. Al margen de la pandemia, se debe ser escrupuloso al tratar los datos sanitarios.

P.- ¿Saldrá nuestra libertad individual digital mermada de esta crisis?

R.- En un contexto de pandemia se ha llevado a cabo un mecanismo de suspensión de derechos individuales para disponer herramientas con las que afrontar una crisis humanitaria y epidemiológica. Supone una limitación exclusivamente temporal de los derechos fundamentales. Y no debería consolidarse. Si entendemos que el Estado necesita utilizar nuestros datos para proporcionarnos servicios públicos la conclusión se cae por su propio peso. Pero creo que es una conclusión equivocada. Deberíamos definir qué circunstancias justifican que un servicio público utilice nuestros datos para el bien común y con las garantías RGPD.

Cuando en la Europa occidental se alumbraron los estados constitucionales se decía que era necesario que el poder limitase al poder y que había que establecer un conjunto de balanzas y contrapesos que garantizasen el buen funcionamiento democrático. El futuro tecnológico dependerá, en gran medida, de los controles que establezcamos para evitar la arbitrariedad y el uso indebido de la información y de la limitación de nuestros derechos fundamentales.

Comentar ()