Asunción Gómez-Pérez, vicerrectora de Investigación e Innovación en la Universidad Politécnica de Madrid (UPM) y miembro de la Real Academia Española, ha sido la encargada de impartir la primera conferencia magistral del VI Congreso Internacional de Inteligencia Artificial, organizado por El Independiente en Alicante.

En su charla, Gómez-Pérez ha explicado qué es la IA, ha repasado su historia -desde que surgió en la Conferencia de Dartmouth de 1956 hasta la actualidad-, y ha detallado los distintos componentes que conforman uno de estos sistemas tecnológicos. Y a su vez, ha enumerado sus "capacidades cognitivas", que van desde el entendimiento de órdenes habladas y la generación de textos escritos hasta las predicciones y simulaciones.

"El Primer motivo de que IA se desarrolle como la tenemos a día de hoy es porque disponemos de unas infraestructura muy grandes. Y el segundo es que tenemos modelos que trabajan con datos, que les proporcionan los usuarios y los dispositivos. A partir de ahí la IA percibe información del entorno, a través de datos o imágenes. Con ese conocimiento razona, y eso le lleva a tomar varias decisiones. Actúa sobre el mundo físico y digital", explicó Gómez-Pérez.

La académica, que es Doctora en Informática por la UPM y realizó su estancia postdoctoral en la Universidad de Stanford (EEUU), quiso también distinguir las que son, a su juicio, las dos grandes áreas en la IA. Por un lado, la IA que razona y explica utilizando la heurística, la ontología y la lógica. Y por otro, la IA que aprende modelos numéricos a través de un algoritmo que produce un modelo.

En la conferencia también se habló de las claves de la IA generativa, que ha explotado en los últimos meses, y de la relación de esta tecnología con los datos y los metadatos. Sin embargo, el núcleo de la charla se centró en la conexión entre la IA y el lenguaje, que Gómez-Pérez, como miembro de la RAE, ha estudiado en profundidad.

En ese sentido, la experta habló de los grandes modelos del lenguaje, como GPT, que se entrenan con grandes cantidades de textos y utilizan técnicas de aprendizaje profundo. Pero estos, según explicó, también presentan una serie de problemas. El más evidente es la falta de veracidad que tienen sus textos, que pueden estar obsoletos o ser, directamente, falsos. Pero hay otros más complejos, como el debate sobre la propiedad propiedad intelectual, la falta de trazabilidad y explicabilidad, o su impacto en el medio ambiente.

Al hilo de esto, Gómez-Asunción explicó el trabajo que está llevando a cabo la RAE para proteger nuestro idioma, que es patrimonio común de 600 millones de hablantes, en los contextos tecnológicos, donde puede verse amenazado en algunas aspectos. No es una tarea fácil, porque en el caso de la IA, por ejemplo, el español va siempre por detrás del inglés, y son las grandes empresas desarrolladoras las que tienen en su mano tomar decisiones. Pero siempre hay margen de maniobra.

En ese sentido, la académica recordó que la RAE presentó en 2019 el Proyecto Lengua Española e Inteligencia Artificial (LEIA), que tiene como principal objetivo hacer que las máquinas hablen y utilicen el español correctamente. "Debemos preguntarnos cuántas máquinas y textos generan voz y texto en español, y ver si esos textos son correctos. Pero la pregunta clave es si estas aplicaciones están transformando nuestro idioma y creando dialectos digitales", concluyó la experta.

Conferencia Magistral completa:

ORGANIZA
PATROCINA