Ciencia y Tecnología | Inteligencia Artificial

La Mutualidad de la Abogacía apuesta por la Inteligencia Artificial

La entidad ha creado un Comité de Ética para garantizar el buen uso de esta tecnología y desarrollará un chatbot para asistir a sus clientes

La jornada de 'Retos éticos de la IA' promovida por la Mutua de la Abogacía

La jornada de 'Retos éticos de la IA' promovida por la Mutua de la Abogacía

La Inteligencia Artificial dejó hace tiempo de ser parte del futuro para ser una realidad en nuestras vidas.  La cantidad de datos que generamos al interactuar en Internet o con nuestros móviles ayudan a que muchas de las decisiones que antes tomaban los humanos sean determinadas hoy por algoritmos. También en el mundo de los seguros y la abogacía.

La Mutualidad de la Abogacía, consciente de este nuevo escenario, quiere ofrecer a sus clientes un asesoramiento basado en la Inteligencia Artificial. Para ello, uno de sus proyectos será la creación de un chatbot que asistirá a los clientes tanto en la web como en una nueva app para informar a los mutualistas. Entre sus objetivos también está que los algoritmos de IA identifiquen por voz el fraude en la declaración de siniestros. Así, según el presidente de la entidad, Enrique Sanz Fernández-Lomana, mejorarán la relación con los mutualistas interactuando de forma “más precisa” e influir en las decisiones de negocio.

El Comité de Ética velará por un uso de los datos transparente y democrático

La entidad ha querido ir más allá en la IA. El pasado 24 de septiembre presentaron el Comité de Ética de la Inteligencia Artificial. El objetivo es garantizar que la recopilación y el uso de los datos que generamos se realice de forma transparente y democrática, así como vigilar el impacto de esta tecnología en la Mutualidad.  

Un Comité formado por expertos de varias disciplinas: actuarios y expertos en datos, ética y tecnología. También cuentan con nombres como el de Nuria Oliver, responsable de datos de Data-Pop Alliance, y doctorada en el Instituto Tecnológico de Massachusetts (MIT); o el de José Miguel Rodríguez-Pardo, presidente de la Escuela de Pensamiento de la Mutualidad Abogacía. 

Este grupo de personas analizará el daño que puede causar una IA que haga predicciones inexactas, establecerá un conjunto de procedimientos para evitar sesgos en el diseño de los algoritmos, evaluará que el sistema de IA sea útil para personas con discapacidad o en riesgo de exclusión y fomentará la diversidad en los equipos de creadores de algoritmos de IA. 

El Comité tendrá en cuenta los principios éticos de la propia Mutualidad, pero también los marcados por las instituciones europeas. “Los siete requisitos clave para la Inteligencia Artificial identificados por el Grupo europeo de Ética y del Grupo de Expertos en Inteligencia Artificial de la Comisión Europea son: Intervención y supervisión humana; robustez y seguridad; privacidad y control de los datos; transparencia; diversidad, no discriminación y equidad, bienestar social y ambiental y responsabilidad”, explicó durante la jornada ‘Retos éticos de la IA’ Juergen Foecking, subdirector de la Oficina del Parlamento Europeo en España.

Un mundo de datos

“Las empresas deben considerar el coste de oportunidad de no tener un comportamiento ético en el tratamiento de los datos de los ciudadanos”. Con esas palabras, la directora general de Advanced Analytics de Accenture, Isabel Fernández, quiso poner de relieve durante la presentación del Comité -celebrada el 24 de septiembre- la cantidad de datos que generamos las personas hoy en día.

Las empresas deben considerar qué comporta no tener un comportamiento ético de los datos de los ciudadanos

Fernández mostró su preocupación de que los estandares legales y éticos con el tratamiento de los datos no se cumplan «rigurosamente» como sí se hace en sectores como el de la contrucción. “Las empresas deben considerar el coste de oportunidad de no tener un comportamiento ético en el tratamiento de los datos de los ciudadanos”, señaló.

Y es que la Inteligencia Artificial está alimentada de datos. Estos algoritmos, explicó Nuria Oliver, «tienen que ser de justicia, tener autonomía pero también deben tener que rendir cuentas, tienen que ser confiables y fiables y transparentes”. Las dos expertas participaron en la mesa redonda junto al mismo Juergen Foecking y Rodríguez-Pardo. También participaron Fernando Polo, CEO de Good Rebels, y Fernando Ariza, subdirector general de la Mutualidad.

Comentar ()