// TODO: Revisar qué hace the_post_thumbnail_creditos

Economía, Inteligencia artificial & CienciaEn conversación con José Ignacio Latorre

Clases de ética para robots

Los humanos llevamos siglos conviviendo con máquinas inmensamente más fuertes y más rápidas que nosotros mismos. Pero que un camión de 40 toneladas supere nuestras capacidades físicas no resulta tan inquietante como que pueda tomar solo ciertas decisiones sin consultar a ningún humano. No es la fuerza de las máquinas lo que protagonizará los mayores dilemas tecnológicos de este siglo, sino su capacidad para tomar decisiones.

Cuenta José Ignacio Latorre en su último libro Ética para máquinas (Ed. Ariel) que ya existen sistemas inteligentes autónomos que deciden sobre la vida y la muerte. Desde vehículos autónomos a programas médicos. “Hay demasiado en juego para que los humanos no reflexionemos en profundidad sobre el siguiente salto evolutivo que vamos a propiciar”, afirma este catedrático de Física Teórica de la Universidad de Barcelona.

Ante la posibilidad de que las máquinas nos lleguen a superar intelectualmente, si vamos a cohabitar con inteligencias artificiales en las que vamos a delegar una toma de decisiones constante, Latorre urge a reivindicar que necesariamente estas máquinas han de ser éticas.

José Ignacio Latorre, autor de “Ética para máquinas” Fundación Telefónica

“Desde las leyes de Newton, el siglo XVIII es el siglo del mecanicismo; el XIX es el siglo de la Química, igual que el XX lo fue de la mecánica cuántica,  la fisica y la biología”, explica Latorre, un apasionado de la información cuántica y las partículas elementales. “Pero cada vez está quedando más claro que el siglo XXI es el siglo de la información y la ética”.

Igual que Alan Turing, Latorre también es de la opinión de que no hace falta que realmente las máquinas sean más inteligentes que los humanos, basta con que lo parezca: “La preocupación no es si tienen o no sentimientos, sino si puede parecer que lo tienen”, afirma. “Llegará un momento en que nos dará lo mismo convivir con máquinas que con humanos. Hay mucha gente que le habla a sus perros e incluso a su coche. Las personas hace mucho que otorgamos nuestro cariño a seres que no son inteligentes ni de lejos. Imagínate si a eso le añades una capa de inteligencia… ¿Qué implicaciones éticas tendrá?”

Lo preocupante es que haya una lectura comercial detrás. “Se están desarrollando sistemas de inteligencia artificial que atienden a la soledad de las personas mayores en casa. A priori no tiene por qué ser nada malo,  pero si detrás de esta tecnología no esta la intención noble de tratarles y mejorar su calidad de vida sino de obtener información de sus costumbres para obtener un beneficio tal vez deberíamos replanteárnoslo. No me parece bien que una interés corporativo campe a sus anchas espiando a una persona de 85 años”.

“La Inteligencia Artificial se está desmadrando”

¿Estamos cediendo nuestro espacio intelectual a las máquinas? “Sí, sin duda”, dice este físico. Como prueba nos propone en su libro dividir 512 entre 7, sacando un par de decimales. La pereza nos llevará a hacerlo inevitablemente con la calculadora. Pero un algoritmo de suma no es una inteligencia artificial. Latorre aboga por desmitificar tanto los éxitos como las limitaciones de la inteligencia artificial. Necesitamos comprender qué problemas son programables y cómo hacerlo para juzgar éticamente las decisiones del futuro.

“Somos humanos, pero humanos predecibles”, apunta Latorre. “Cuando las máquinas logren niveles de inteligencia superiores seguramente se mofen de los simples que somos lo humanos, porque todos nos parecemos más de lo que creemos”. Y añade: “Nos entretenemos de firma predecible, compramos prendas similares, viajamos a los mismos sitios, asumimos ciegamente que el dinero es lo importante y que nos merecemos más”.

Por eso sostiene Latorre que una inteligencia artificial avanzada del futuro se aburrirá profundamente soportando algo tan humano como nuestros egos. Sin embargo, la tecnología que actualmente trata de anticiparse a nuestros gustos tiene más que ver con una humilde minería de datos que con una inteligencia artificial sofisticada. Es la búsqueda sistemática de un patrón en un amplio registro histórico, ya sea de los libros que nos gusta leer, las películas que vemos online o la logística de una empresa. El objetivo es adivinar nuestro comportamiento futuro a través de correlaciones con nuestras costumbres y preferencias.

¿Hasta qué punto es ético recopilar información sobre nuestro comportamiento con el fin de influir en él? ¿Qué consecuencias tiene sembrar la red de legiones de programas que escudriñan y supervisan cada uno de nuestros pasos para anticiparse a nuestros gustos? “Esto es solo el principio del dilema”, advierte Latorre. “Es ahora que la Inteligencia Artificial se está desmadrando. Está dejando de ser propiedad de la humanidad para serlo de corporaciones”.

“Hay que mojarse en lo ético, no de hacer grandes directrices, sino que cada empresa baje a lo concreto para especificar sus planteamientos”, advierte este investigador, que empezó hace 25 años a trabajar con inteligencia artificial. ” Es trivial de escribir directrices éticas al estilo Asimov diciendo que las máquinas no deben hacernos daño. Eso no es suficiente. Hay que empezar a decidir si una máquina tiene personalidad jurídica y si paga impuestos. No sirven grandes directrices porque son muchos los dilemas cotidianos”.

Uno de esos dilemas lo encontramos en el Departamento de Justicia de Estados Unidos, que ya esta haciendo experimentos para que un programa de inteligencia artificial asista a los jueces en su toma de decisiones, por ejemplo, a la hora de fijar fianzas y libertad condicional. “La decisión final la toma el juez, pero si no sigue el consejo de la Inteligencia Artificial tiene que justificarse”, explica Latorre. “¿Podemos someter la ética al aprendizaje automatizado? Por qué no. Podemos someter a una red que aprenda sobre datos objetivos qué está bien y qué está mal para una determinada sociedad y así asegurarnos de que la toma de decisiones es más objetiva”.

El ministerio de Inteligencia Artificial

“La mayoría de los Gobiernos, excepto a nivel europeo que hay una preocupación, no se están enterando de la profundidad de este cambio, que va a pillar a muchos con el pie cambiado”, advierte Latorre. Achaca parte de la miopía tecnológica a que tengamos gobiernos formados fundamentalmente por políticos procedentes del campo del Derecho y Económicas, sin formación ni capacidad de análisis científico.

“En Singapur es al revés”, advierte Latorre, que es profesor visitante en el Centro de Tecnología Cuántica de la Universidad Nacional de Singapur. “Allí la mayor parte del Gobierno está formado por técnicos y eso hace que se estén tomando mucho más en serio la profundidad de un cambio que afectará todas las esferas de la vida cotidiana. “Habría que meter filósofos, ingenieros y científicos en las organizaciones y en los organismos públicos”, añade. “Hay un error de las multinacionales a caer en la endogamia de los MBA. Deberíamos tener un Ministerio de Inteligencia Artificial”.

Pero no son solo los gobiernos los que están tardando en ver este retro. También advierte Latorre a las empresas: “Cada compañía debería hacer un esfuerzo para tener un departamento de ética que centralizara los dilemas de la toma de decisiones autónomas que pronto van a encontrarse en sus máquinas”.

Entre las cuestiones más delicadas que advierte Latorre ya nos estamos encontrando en las empresas es el uso de inteligencia artificial en las entrevistas de trabajo. Si las máquinas que ya se están utilizando en los procesos selectivos aprenden de los comportamientos humanos, también pueden estar interiorizando sesgos machistas y racistas, por ejemplo. También hay sesgos en la importancia que le damos a la apariencia física. “A un humano le puedes pillar en un desliz si está cometiendo comportamientos discriminatorios, pero a una red neuronal no la vamos a pillar si no te dejan abrir la caja y ver cómo funciona”, sentencia.

Aun así, Latorre es optimista. “Es urgente meter la ética en las empresas, tan urgente como meter tecnología. Yo hago un esfuerzo para ser positivo, sabremos navegar en estos mares”, comenta esperanzado. Pero se pone serio, como físico que es, al recordar lo que pasó en el siglo XX con otra tecnología que prometía cambiarlo todo: la energía nuclear.

“Espero que no permitamos que con la inteligencia artificial vuelva a pasar lo que pasó con la bomba atómica”, sentencia este catedrático de Física Teórica.”Me gustaría pensar que estos avances que nos vienen de las redes neuronales profundas no se van a transformar en un arma porque esta vez antepondremos la ética. Hay que ser optimista”.

logo
Clases de ética para robots