Mark Coeckelbergh (Lovaina, Bélgica, 1975) es uno de los mayores expertos mundiales en la filosofía y la ética de la tecnología. Un tema ya de por sí complejo, pero que se complica aún más cuando choca con la Inteligencia Artificial (IA), una tecnología que no deja de evolucionar a pasos agigantados, pero sobre la que aún hay muchas dudas.

Coeckelbergh la ha estudiado a fondo. Conoce todos los retos que plantea para la sociedad, y considera importante que la ciudadanía reflexione sobre qué quiere hacer con la IA. Porque al fin y al cabo, dice, es una tecnología con muchísimo potencial y algunos riesgos, pero se convertirá en lo que nosotros queramos que se convierta. Tenemos el control sobre ella.

Autor de 17 libros, es profesor en la Universidad de Viena (Austria) y en el Instituto de Filosofía de la Academia de Ciencias de Praga (República Checa). Fue también presidente de la Sociedad para la Filosofía y la Tecnología y formó parte del grupo de especialistas de alto nivel en IA de la Comisión Europea. Y próximamente llegará a nuestro país para impartir una conferencia en el VI Congreso Internacional de Inteligencia Artificial, organizado por El Independiente el próximo 17 de noviembre en Alicante.

Pregunta: La IA ha explotado en los últimos meses. Pero en 2020 usted ya escribió un libro sobre los retos éticos que planteaba de esta tecnología. ¿Han cambiado mucho desde entonces?

Respuesta: Los principales retos éticos son los mismos. Por ejemplo, cómo podemos garantizar que exista responsabilidad humana respecto a la IA, o cómo podemos garantizar que los datos que utiliza no son privados, y realmente la sociedad se los ha querido ceder a las empresas. Lo que ha cambiado es que la IA ha dado un gran paso gracias a los grandes modelos lingüísticos. Así que hace un trabajo mucho mejor en cuanto a la producción de textos, y de manera más independiente. 

Eso significa que tenemos que ser más conscientes de qué información disponible en Internet ha sido producida por estas herramientas, porque podría haber manipulaciones. En el pasado ya teníamos problemas de desinformación y polarización, pero estas cuestiones se han agravado ahora. ¿Y quién es el responsable? ¿La empresa que ha desarrollado la IA o el usuario?

Estos problemas han aumentado, y por eso ha habido una gran reacción. Y está justificada, pero creo que hay demasiado pánico sobre si la IA va a apoderarse del mundo o va a provocar catástrofes en la humanidad. Creo que es difícil que suceda algo así, pero hay una especie de pánico moral. Nos estamos centrando demasiado en estas cosas en lugar de los problemas reales que existen, como la desinformación.

P: Precisamente quería preguntarle sobre esto. ¿Cree que el miedo a esta tecnología tiene argumentos sólidos?

R: Tenemos que mirar a largo plazo para intentar saber qué podría hacer esta tecnología por la sociedad. Pero no creo que ese pánico tenga argumentos sólidos, porque la IA tal y cómo la conocemos, e incluso si se desarrollara más y adquiriera más poder, dependería de lo que los humanos hicieran con ella.  Por eso no compro esos argumentos. Es más importante mirar las cuestiones políticas y de poder. ¿Quién la controla? ¿Quién tiene cierto interés en utilizarla para determinados fines? ¿Qué quieren hacer con ella las empresas y qué están haciendo ya los gobiernos? Estas cosas son importantes preguntárselas

P: ¿Es la IA la tecnología más problemática desde el punto de vista ético?

R: Creo que es problemática, pero hay otras tecnologías que también lo son. Por ejemplo, la IA se utiliza a menudo en plataformas sociales y medios digitales, como X o Facebook. Ahora nos estamos centrando sobre todo en los problemas de la IA, a los que se les está dando mucho bombo. Pero hay otros problemas que tenemos con esas plataformas, que ya están dando forma a nuestras vidas y nuestros trabajos. Ya han cambiado cosas. Así que creo que tenemos que mirar en general a todas las tecnologías digitales, y no sólo a la IA. 

Hay que analizar diferentes sectores, como la educación, el transporte o la industria, y preguntarse cómo les afectarán las tecnologías digitales, de las que forma parte la IA. Pero esta cuestión no es necesariamente la única, ni siempre es la más importante. Hay más factores. Deberíamos pensar en cuáles son las prioridades políticas. ¿Es realmente la IA o deberíamos, por ejemplo, centrarnos en el cambio climático y luego discutir la IA en ese contexto? Hay que ver cuáles son los retos mundiales y si la IA es sólo uno de ellos.

P: Pero, ¿cómo podemos discutir sobre la IA sin saber exactamente qué es y en qué puede convertirse? Porque este tema también genera debate.

R: Así es. El problema es que mucha gente no sabe lo que es. No saben, por ejemplo, que la IA se basa en estadística. La gente se imagina una entidad, como si fuera una especie de robot o algo así. Un monstruo de Frankenstein que nos amenaza, y proyectamos nuestros miedos en él. Pero no es el caso. Es un software, se basa en algoritmos, en datos y en el análisis estadístico de esos datos. Y también en las personas que los recopilan. Y luego nosotros, por supuesto, tenemos que estudiar las consecuencias y las cuestiones éticas de esta tecnología. 

Para evitar todo esto tenemos que especificar de qué estamos hablando. Por ejemplo, de la IA generativa. Podemos hablar de problemas específicos como la desinformación, de los datos que utiliza, de los derechos de autor, etc. Y luego hay que estudiar la IA en su contexto y en su contexto humano. Porque una vez que lo hagamos nos podemos responsabilizar de ella. No es un monstruo, es una herramienta que los humanos utilizan deliberadamente y sobre la que podemos tomar el control. Eso, por supuesto, también tiene algunas consecuencias no deseadas. Y yo, como filósofo de la tecnología, me fijo especialmente en ellas.

P: ¿Cuál es el aspecto ético de la IA que más le preocupa?¿Y cuál es el aspecto ético de la IA sobre el que se exagera más?

R: Lo que más me preocupa es cómo la IA va a afectar a la vida diaria y al trabajo de la gente. Que significará para ti como periodista, para mí como académico o para un conductor de Uber que esté regulado, controlado o vigilado por IA. Es importante analizar qué impacto tendrá en la vida cotidiana.

Lo menos importante son esas fantasías de la IA tomando el control de la humanidad. Y quizás también las cuestiones de privacidad, porque antes de la IA ya teníamos problemas en ese sentido. Por supuesto este tema hay que tratarlo, pero lo que hay que discutir ahora es si está bien usar la IA para automatizar las cosas y cómo afectará a los seres humanos. Ese debería ser el enfoque ético y político.

P: ¿Por qué es importante debatir sobre la ética de la IA, y de la tecnología en general, aunque no haya acuerdo sobre las conclusiones?

R: Me pregunto si es cierto que no hay acuerdo. Creo que cada vez hay más consenso entre los expertos y los responsables políticos sobre cuáles son los problemas y qué principios éticos son los más importantes. El reto actual es ver qué significa todo esto. En concreto, ¿cómo vamos a regular la IA?¿Necesitamos nuevas leyes? ¿Y de qué tipo? Y luego ver cómo aplicar la ética a nivel técnico. Esas son las preguntas más prácticas. Y sí, necesitamos trabajar mucho más en ello y debatir más. Pero creo que, en general, los expertos no están tan en desacuerdo.

Los principales desacuerdos están en los medios de comunicación, cuando encontramos este tipo de fantasías sobre la IA. Entonces sí parece que nunca podremos llegar a un consenso respecto a estas cuestiones. Pero cuando tenemos un debate democrático formado por expertos podemos ir más allá de esto. Y plantearnos realmente cómo podemos mitigar los riesgos de la IA. Creo que esa es la dirección en la que debemos ir.

P: ¿Y hay muchos expertos discutiendo sobre estos temas actualmente?

R: Hay mucha gente que dice que es experta. Un problema de todo esto es que muchos ven que la IA es un tema que está de moda, y creen que pueden ganar dinero con ella. Y por eso dicen que son expertos en IA o en la ética de la IA. Pero, por supuesto, algunos expertos son más expertos que otros.

Creo que ahí hay otro problema para el debate. Desde el punto de vista de los responsables políticos y del público en general no siempre es fácil ver quiénes son los expertos que realmente pueden aportar algo y que se basan en años de investigación. Así que todo esto se convierte un poco en una industria de la ética de la IA. Y eso significa que hay personas que sólo quieren ganar dinero pero no contribuyen realmente a resolver los problemas.

P: Usted asegura que muchos de los retos éticos de la IA son los mismos que tienen otras muchas tecnologías. Pero dígame algún reto ético que sea exclusivo de la IA.

R: La responsabilidad o la privacidad no son debates únicos de la IA. Pero creo que la explicabilidad si es algo único de esta tecnología. Porque cuando usamos el aprendizaje profundo ya no es posible explicar las recomendaciones o las decisiones de la forma en la que normalmente lo hacemos con los humanos. Y esto es un problema.

Además, la forma en la que los grandes modelos de lenguaje funcionan es única. Y el impacto que tienen en la escritura o la generación de imágenes también lo es, porque no está claro quién tiene realmente los derechos de autor. Tampoco está claro el estatus epistémico, porque no sabes qué es realmente información veraz, errónea o si es directamente basura. Estos son problemas únicos creados por las formas contemporáneas de IA. Y, por supuesto, debemos centrarnos en ellos en la ética y la política.

P: Hábleme de la conexión que establece entre la IA y la ciencia ficción, las religiones y la filosofía.

R: En nuestra cultura tenemos ciertos patrones de pensamiento. Por ejemplo, en las religiones monoteístas tenemos la aspiración de alcanzar la vida eterna. Es algo muy humano y muy profundo, pero que también se ve en tecnologías como la IA, que se relacionan con esas fantasías de ciencia ficción en las que vivimos más tiempo. Son cosas que solíamos esperar de la religión y ahora esperamos de la IA.

Con el pensamiento religioso también identificamos un fin de los tiempos y un nuevo mundo que surge después. Y eso se ve en la forma en que la gente habla de la IA a largo plazo. Esta idea de que va a crear un nuevo mundo. Que habrá un punto de no retorno, donde todo cambiará. Yo veo un montón de patrones así, que se encuentran en la religión y la cultura occidentales y que se manifiestan ahora en la forma en que pensamos acerca de la IA.

P: ¿Cree que la legislación sobre IA en la que está trabajando la Unión Europea es completa desde el punto de vista ético?

R: Es un reto hacer frente a los nuevos problemas que generan ChatGPT y el resto de IA generativas. Estas tecnologías no existían cuando yo formaba parte del grupo de expertos en IA de la Comisión Europea. O si existían, no se utilizaban mucho. Ahí se ve que la legislación tiene un problema para ponerse al día con la tecnología. En general es bueno que la UE quiera regular estos riesgos, pero el reto es para todos los responsables políticos es que la IA evoluciona continuamente.

Por eso es importante que pensemos en cómo podemos combinar el principio de legitimidad democrática, que hace que podamos discutir como sociedad, y la necesidad de reaccionar rápidamente a los nuevos desarrollos tecnológicos para crear algún marco regulatorio y aplicar los valores éticos. Estas dos cosas van a distintas velocidades, y la democracia va más lenta. Tenemos que pensar cómo podemos hacerlo y ser creativos. En mi nuevo libro, que saldrá en invierno, hablo sobre este tema. Porque sí, realmente es un problema, y tampoco es que tengamos todavía todas las respuestas. 

P: ¿Le gustaría que algún día llegáramos a alcanzar la Inteligencia Artificial General?

R: No veo para qué la necesitaríamos, porque es básicamente una imitación de la inteligencia humana y eso ya lo tenemos. Lo que hay que hacer como sociedad es utilizar la IA específica para que nos ayude en cosas concretas en las que no somos tan buenos. Por ejemplo, es muy útil para trabajar cuando tienes muchos datos. O en medicina. Ahí sí puede desempeñar un papel positivo. 

Pero no es sólo que no necesitemos la IA general. Es que filosóficamente también es muy cuestionable pensar si algún día podremos realmente tenerla. Ahora con estos modelos de lenguaje mucha gente tiene la esperanza de que pueden ser un primer paso para alcanzarla. Pero no debemos olvidar que la forma en la que trabajan estos modelos es muy diferente de la inteligencia humana, y tiene sus propias limitaciones. Entonces, ¿se pueden comparar realmente con nuestra inteligencia?

Creo que lo que sucederá es que utilizaremos la IA específica para que nos ayude en algunas cosas. Pero debemos asegurarnos de que todavía somos nosotros los que decidimos para qué se utiliza. La ética debe ser parte del desarrollo y del uso de estas tecnologías para que las utilicemos para el bien común y no sólo para enriquecer a unos pocos.

P: Para acabar, hábleme un poco sobre la importancia de congresos sobre IA como el que organiza El Independiente en Alicante. Y explíqueme qué temas tratará en su ponencia.

R: Yo hablaré de los aspectos éticos y políticos en los que debemos pensar en el contexto de la IA. Algunas cosas ya las hemos tocado en esta entrevista, como las cuestiones en torno a la explicabilidad o la responsabilidad, pero también hay cuestiones sobre la democracia. Y yo estoy muy enfocado ahora en ese tema.  

Respecto a los congresos como el de El Independiente, creo que son importantes porque necesitamos concienciar al público sobre las oportunidades y los riesgos relacionados con la IA. Y tenemos que hacerlo de una manera que aporte experiencias, y también que estimule a la gente a pensar sobre estas cuestiones por sí misma. Porque para mí la democracia significa no sólo preguntar a la sociedad, sino también que la gente piense por sí misma en lo que es bueno para todos.

Los filósofos de la tecnología como yo pueden ayudar a esto. No debemos ser nosotros quienes decidamos el futuro de la sociedad, pero podemos ayudar a estimular el debate democrático. Un debate democrático que se tome en serio a las personas, que tienen la capacidad de pensar por sí mismas, y no los trate sólo como animales falderos que hacen clics en páginas webs, aplicaciones o redes sociales

La filosofía, los medios de comunicación y los expertos pueden, creo, tener la responsabilidad en la sociedad de ayudar a este pensamiento crítico. La tecnología por sí misma no puede hacerlo. Puede ayudarnos, pero no puede fomentar ese pensamiento crítico. Por eso los congresos son importantes. Cumplen un papel vital en nuestras sociedades, ahora que están cambiando rápidamente con la tecnología. Y nosotros necesitamos esto: una creación de conciencia y más discusión sobre estos temas.