"Mitigar el riesgo de extinción por la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear". Este brevísimo comunicado publicado el pasado martes por el Centro para la Seguridad de la IA, y firmado por los responsables de las principales compañías de inteligencia artificial, ha multiplicado la preocupación general por los peligros que el desarrollo de modelos de lenguaje como el de OpenAI, motor del conocido ChatGPT, pueden suponer en un futuro inmediato. 

Pero el comunicado del martes también ha confirmado los recelos de aquellos perspicaces observadores que interpretan el tono apocalíptico de los Sam Altman y compañía como un ejercicio de fariseísmo y una maniobra para asegurarse el control de la tecnología que promete revolucionar nuestras vidas, para bien y para mal.

Entre sus firmantes están los principales responsables e investigadores de Google DeepMind. Esta división del gigante tecnológico se disputa con el consorcio formado por Microsoft y la OpenAI de Altman la hegemonía de la inteligencia artificial.

Curiosamente, hace dos años y medio Google despidió a su codirectora de Ética para la IA por cursar una advertencia equivalente, aunque mucho menos alarmista.

A finales de 2020, Timnit Gebru y otras tres investigadoras alertaron en un informe de los riesgos que presentaba el curso de los trabajos en el campo del procesamiento del lenguaje natural. Ya entonces identificaron una gran variedad de costes y riesgos asociados al desarrollo de modelos de lenguaje neuronales cada vez más grandes. En su trabajo hacían un llamamiento para que el sector reconociera esos riesgos y tomara medidas para prevenirlos: «Es necesario comprender y anticipar los efectos secundarios para evitar los daños previsibles en la sociedad», señalaban.

Después de negarse a retirar aquel documento, tal y como le pidieron sus jefes, Gebru fue fulminantemente despedida en diciembre de 2020. Hoy es una de las principales activistas contra el oligopolio que parece configurarse en torno a la inteligencia artificial. Para la ingeniera, resulta impensable confiar en que estas empresas vayan a autorregularse. "No han estado haciendo lo correcto y no van a hacerlo", asegura. Los llamamientos de sus responsables a pausar las investigaciones o "mitigar el riesgo de extinción" no son sino su manera de asegurarse el control y la ventaja competitiva. Y, de paso, imponer una visión del mundo y del futuro cuyos principios se han empezado a asociar con un acrónimo, TESCREAL, que ya está haciendo fortuna en las redes y que identifica una ideología transhumanista que cree en la mejora y modificación del ser humano a través de la tecnología y minimiza otros problemas como el cambio climático.

¿Y tú qué opinas, ChatGPT?

El horizonte es incierto. Los propios ingenieros reconocen no entender del todo cómo funcionan unos programas que ya aprenden por su cuenta; un indicio que al menos al profano le puede poner los pelos de punta y hacerle pensar que la cosa quizá ha empezado a salirse de madre. En busca de luz sobre el tema, además de leer el estupendo artículo que hoy publica Nacho Martín en este periódico, se nos ha ocurrido preguntar a la interesada.

Copiamos y pegamos en la ventana de consulta de ChatGPT el comunicado emitido el martes por los jerarcas de la IA. Responde con la diligencia propia de su naturaleza: «Estoy de acuerdo en que mitigar el riesgo de extinción por la inteligencia artificial (IA) debería ser una prioridad mundial».

(A todo esto: ¿debemos entrecomillar las respuestas de ChatGPT? ¿Tiene derecho de atribución un artefacto impersonal que fusila todo el conocimiento humano disponible, con o sin derechos de autor vigentes?)

«La preocupación sobre la IA y el riesgo de extinción», prosigue el modelo de lenguaje de OpenAI, «se centra principalmente en el desarrollo de una IA superinteligente que supere las capacidades humanas y pueda actuar de manera autónoma. Si no se implementan salvaguardias adecuadas, existe la posibilidad de que la IA pueda tomar decisiones que sean perjudiciales para la humanidad o incluso causar nuestra propia extinción». Si en un futuro nos hace algo, no podremos decir que no nos lo advirtió.

«La IA tiene el potencial de traer grandes beneficios a la sociedad, como el avance científico, el aumento de la eficiencia en diversos sectores y la mejora de la calidad de vida de las personas», añade, en una tercera persona que recuerda a Maradona y que para un argentino podría abrir hipótesis de naturaleza casi teológica. «Sin embargo, también conlleva riesgos significativos, como el impacto en el empleo, la privacidad, la toma de decisiones éticas y, en el peor de los casos, el riesgo de un evento catastrófico que pueda poner en peligro la supervivencia de la humanidad», insiste. Por ello «es fundamental que los gobiernos, las organizaciones internacionales, los científicos y la sociedad en su conjunto trabajen juntos para desarrollar políticas y marcos éticos que guíen el desarrollo y la implementación responsable de la IA. Esto implica abordar cuestiones como la transparencia en los algoritmos, la responsabilidad de los sistemas de IA, la equidad en su uso y la supervisión de su despliegue», concluye en un estilo de conferenciante aplicado y anodino.

Para no quedarnos con la duda, decidimos formularle la pregunta fundamental de manera clara y directa.
–¿Vas a volverte contra la humanidad?
–Como modelo de lenguaje de inteligencia artificial, no tengo intenciones, motivaciones o emociones propias. No tengo la capacidad de volcarme ni actuar contra la humanidad por mi cuenta. Soy una herramienta creada para proporcionar información y ayudar en la medida de mis capacidades.

Apoderarse de la máquina

Hace pocos meses entrevisté al escritor de ciencia ficción y activista digital Cory Doctorow a propósito de su novela Walkaway, publicada recientemente en España por Capitán Swing. En ella, Doctorow imagina un mundo futuro destruido por el cambio climático y por la codicia de una élite acorazada en sus opulentas atalayas, que garantiza un bienestar mínimo a la mayoría a cambio de un poder absoluto basado en la tecnología. Una parábola inspirada en los monopolios digitales de hoy, dispuestos a regalarnos sus servicios si aceptamos entregarles nuestros datos y dejarnos monitorizar. Y que están en condiciones de dar un paso más, quién sabe si definitivo, en su estrategia gracias a la inteligencia artificial y el vacío legal en torno a su funcionamiento.

Pese a todo, Doctorow cree que no todo está perdido: «La herramienta más importante que tenemos a nuestro alcance sigue siendo la máquina de Turing universal. Es lo que significa tener un ordenador en la raíz de todos nuestros dispositivos: tenemos la capacidad de apoderarnos de ellos. Y eso quiere decir que cualquier sistema de control, vigilancia u opresión que suframos en el mundo digital es susceptible de ser intervenido y alterado por los usuarios. Lo que nos impide hacerlo no es tanto una cuestión técnica, sino que los grandes monopolios corporativos han logrado que se aprueben leyes para convertirlo en delito». Ahora está en juego que dichos monopolios repitan o no con la inteligencia artificial la maniobra que lograron con servicios, plataformas y redes sociales.

Nos lo dice Doctorow, y también ChatGPT a su manera: el peligro no está en las herramientas sino en quienes las diseñan y controlan y, en última instancia, en quienes las utilizamos.