Ciencia y Tecnología

Qué hacer cuando los algoritmos fallan

Qué hacer cuando los algoritmos fallan
Una persona teclea código en su ordenador.

El uso de la Inteligencia Artificial es cada vez más habitual. Usuarios, empresas, Gobiernos... Todos, cada uno con sus posibilidades, se sirve cada día de esta tecnología que, irremediablemente, va a ser la gran protagonista de todas nuestras vidas a corto, medio y largo plazo.

PUBLICIDAD

Teniendo en cuenta que parte de la Administración Pública y de las grandes corporaciones ya depende de su uso, el problema es: ¿qué hacemos cuando los algoritmos fallan? ¿Cómo reaccionamos una vez que hemos entregado el control de una tarea importante a la Inteligencia Artificial y está dando problemas?

PUBLICIDAD

A priori la respuesta fácil es recurrir a un ser humano, a un ingeniero que modifique el código o a un investigador que nos señale el problema. Sí, es una buena solución para tareas como la ciberseguridad o la gestión de algunos documentos pero, ¿y si ese algoritmo se encarga de decidir cuál tiene que ser la sentencia de cárcel de un criminal o el tratamiento médico de un enfermo?

Cosas así ya suceden. El estado de Arkansas, en el sureste de Estados Unidos, decidió implantar un algoritmo que era el que se encargaba de decidir cuántas horas de cuidados necesitaba una persona con dependencia. Así, pacientes que requerían de una enfermera 56 horas a la semana pasaron a contar con esta ayuda apenas 32 horas a la semana.

Es el caso de Tammy Dobbs, una mujer que se trasladó a la zona por esos beneficios sanitarios, ya que está en silla de ruedas y no puede utilizar las manos. Tras ocho años contando con una enfermera, el algoritmo decidió que la presencia de esta profesional no eran tan necesaria y redujo su presencia en la casa de Dobbs, que no podía creerlo. Esa persona era indispensable para actividades cotidianas como tumbarse en la cama para dormir.

El algoritmo, que había sido aprobado por el Ejecutivo de Arkansas y elaborado por InterRAI, una organización de profesionales de la medicina presente en 35 países, analizaba 60 parámetros como la alimentación o la movilidad del enfermo y, en base a la información, determinaba las horas de cuidado que necesitaba. Evidentemente, falló.

Más control

Casos como esta han llevado a un grupo de expertos en Inteligencia Artificial a formar un grupo de investigación que, amparado por la Universidad de Nueva York, ha elaborado un informa con una serie de reclamaciones para hacer más segura esta tecnología.

Dirigidos por Meredith Whittaker y Kate Crawford, trabajadoras de Google y Microsoft respectivamente, estos investigadores han pedido al Ejecutivo estadounidense "una regulación justa" y a las empresas unas "mejores estructuras de control interno".

Además, ponen el foco en los algoritmos conocidos como Sistemas de Decisión Automática (Automated Decision Systems, o ADS por sus siglas), que son aquellos que, como el caso de Dobbs, deciden en un base a una serie de datos y de parámetros previamente establecidos. Este tipo de software se utiliza para hacer más eficientes algunas tareas que hasta ahora requerían de un ser humano, reduciendo al mínimo los costes y maximizando la eficiencia.

Ahí entran la asignación de una condena de prisión o un tratamiento médico. A la hora de decidir el tiempo que pasará en la cárcel un delincuente es el juez quien decide, poniendo en valor los actos cometidos y los posibles atenuantes y agravantes, la cuantía de la sentencia, algo que, en teoría, debería ser capaz de hacer un algoritmo si se le índica cómo hacerlo. Para casos menores podría ser una vía efectiva para agilizar los tribunales, aunque es una cuestión que hay que estudiar con cuidado por las implicaciones que tiene.

Este grupo de expertos, que se ha dado el nombre de AI Now, considera que la solución pasa por permitir a los analistas realizar una mejor auditoría de los algoritmos aprobados por los diferentes Gobiernos, en este caso el de Estados Unidos, y por las grandes empresas, a las que solicitan más transparencia.

IA inclusiva

En su informe, los miembros de AI Now se muestran especialmente preocupados por la rápida implantación de las tecnologías de reconocimiento facial. "Necesitamos regular los sistemas de Inteligencia Artificial sector a sector, con especial atención al control facial", explica el informe.

Citan, además, tanto a China como a Estados Unidos, además de a Europa, como zonas en la que es necesaria una regulación sobre el control que ejercen los Estados a través de las cámaras de seguridad instaladas en las calles.

Se preguntan, además, por como menoscaban la igualdad este tipo de software. "Construir un sistema de reconocimiento facial que funcione de igual manera con personas de piel clara y oscura debería tener especial foco en la igualdad. ¿Sería justo que no tuviera el mismo nivel de tecnología? ¿Lo sería para personas de color que viven en comunidades con un bajo nivel de ingresos?", cuestionan.

En este sentido lanzan también una petición a las compañías para que respondan con políticas inclusivas, ante "la falta de diversidad y los casos de acoso, exclusión y brecha salarial que son profundamente perjudiciales para los empleados" para evitar "que los productos de Inteligencia Artificial que producen perpetúen estas discriminaciones".

Te puede interesar

Lo más visto