Este niño está creado por un modelo generativo de inteligencia artificial y no existe, no es real, pero lo parece. Ninguna de las imágenes que ilustran este reportaje son reales. Están creadas con Dall-e. El avance de la tecnología que crea imágenes, sonido y texto está alcanzando su cumbre de calidad antes de que aprendamos a gestionarla. Y eso es un problema para los expertos, porque no estamos preparados ni legal, ni ética, ni cognitivamente para convivir con la realidad que genera, altera o nos presenta.

“Hoy podemos generar imágenes de una altísima calidad que antes no teníamos y cada vez van a hacer más creíble ese contenido digital, cada vez va a parecer más real. Esto nos lleva a otro reto muy importante, que es el reto de la veracidad de estos modelos de generación de contenido. Texto, vídeo, audio o imágenes que cuando alcanzan una calidad tan elevada se vuelven indistinguibles al ojo humano, al oído humano o al cerebro humano. Esto nos genera un reto de veracidad inmenso”, reflexiona Nuria Oliver, experta en Inteligencia Artificial y directora de la Fundación ELLIS Alicante. “Porque si nosotros los humanos somos incapaces de distinguir lo que es veraz y lo que no es veraz, si esa persona existe o no existe, si ese vídeo se corresponde con un hecho real o está totalmente inventado, pues desde un punto de vista, entre otras cosas, de la formación de la óptica pública y de la comunicación, tenemos un reto enorme, porque ya no vamos a saber lo que creer”, añade.

A este punto de calidad se ha llegado tras décadas de investigación, pero la eclosión de aplicaciones y páginas interactivas con modelos generativos de inteligencia artificial que permiten a cualquier persona interaccionar con estos sistemas plantean nuevos retos. 

imagen de un niño creada por IA
imagen de un niño creada por IA en el que se aprecian mínimas imperfecciones.

Desinformación y errores

Lo que vemos como resultado de estos modelos generativos produce varios tipos de problemas en la veracidad. Pablo Haya, profesor de big data y ciencia de datos que lidera el grupo de Social Business Analytics en el Instituto de Ingeniería del Conocimiento señala algunos de estos problemas.

Por una parte están las mentiras inconscientes de la IA. “En el caso de los módelos del lenguaje, como cualquier modelo de IA generativa, dada toda la potencialidad que tienen de generar frases sintácticamente correctas, puede ocurrir que porque te generen frases sintácticamente correctas que suenan plausibles pero no corresponden con la realidad. No mienten, porque no pueden mentir, pero debido al propio mecanismo a cómo está configurado, en ciertas ocasiones, dependiendo de cómo se formula la pregunta, te da una información que no es correcta. Algunas veces, por ejemplo, le pides una cita de un autor y a lo mejor te da una cita que es correcta o a lo mejor se la inventa dependiendo también del contexto”, explica.

Otro tema más grave es el de la desinformación, apunta Haya. Que utilicemos estas herramientas como generadoras de narrativas de desinformación. Aunque las empresas están muy sensibilizadas creando estas herramientas -es una de las razones que da Google en lanzamiento más tardío de Bard, su IA- se pueden crear narrativas de desinformación.  “Por ejemplo, se puede poner una primera frase y te la completa con un argumentario antivacuna o conspiranoico”, asegura. Haya destaca un experimento que se hizo con una IA a la que enseñaron con los contenido de un foro de supremacistas de EEUU, el bot resultante razonaba como la lógica de un racista.

“Es el problema de aprender de todo lo que hay en Internet, que es muy variado. OpenAI [creadora de ChatGPT] ]es muy sensible a este tema por lo que ha intentado filtrar y poner contramedidas para que eso no ocurra. Han conseguido evitar el discurso de odio, pero el tema de la desinformación es tan amplio que las contramedidas que va poniendo las tienen que seguir trabajando”.

“Es inevitable que la IA, que aprende de nosotros, tenga el suficiente “espíritu crítico” para distinguir entre los sesgos y errores del ser humano y sus bondades y elegir correctamente”, reflexiona Daniel Sánchez CEO de Gammera Nest y profesor de Industria del video juego en ESNE (Universidad Camilo José Cela). “De hecho, en  2017 una IA se volvió machista porque comenzó a asociar nombres femeninos a palabras relacionadas con tareas domésticas o cuestiones familiares. En realidad, lo que ocurrió es que muchos de los modelos de aprendizaje automático se entrenan a partir de datos humanos a gran escala y además aprenden utilizando a estadística, buscando la probabilidad que tiene cada palabra de estar junto a otras por lo que, en realidad, lo que hizo la IA en este caso, es repetir errores de nuestra conducta. Y tampoco creo que sea malo. Eso nos pone “frente al espejo”, dejándonos ver cómo trasladamos nuestro inconsciente a otras mentes, aunque sean artificiales en este caso para evitarlo en un futuro. Hoy, en día, tan solo 5 años después, ya esto es mucho más limitado y autocorregible por la propia IA pero sigue siendo una materia compleja de dilucidar dado que saca sus propias conclusiones a partir de nuestra propia conducta”.

Pero el problema no está en las grandes empresas ni en las aplicaciones de IA de los usuarios. A estas se les pueden obligar a poner “algún tipo de marca que permitiese distinguirlo del contenido que ha sido generado por humanos o de contenido que tiene un sustrato en el mundo físico”, apunta como solución Oliver. 

Nuestra única arma para detectar contenido que ha sido generado con inteligencia artificial es la propia inteligencia artificial

Pablo haya

Para Haya el problema es que si bien los grandes generadores de texto, vídeo y audio que se ofrecen al público requieren muchos recursos tecnológicos y económicos hacerlo con fines maliciosos no requiere tantos recursos. “Como deep fakes de personajes reales con videos y audios de su voz lo que se puede usar para poner palabras en boca de alguien que no lo ha dicho”. Esto es, entrenar una IA para hacer un vídeo de un político haciendo o diciendo algo que no es real pero indistinguible a nuestros ojos. “Cuando necesitas cosas puntuales los requisitos tecnológicos no necesitan tantos recursos”, asegura Haya. Este experto asegura que las empresas de verificación de noticias falsas van a tener más trabajo.

Haya cree que la solución a los problemas de la IA está en la propia IA, “ya se están desarrollando tecnologías para detectar si son mentira, esto es la propia IA persigue esos contenidos falsos”. Una solución que Oliver también comparte: “Nuestra única arma para detectar contenido que ha sido generado con inteligencia artificial es la propia inteligencia artificial”. 

Efectos inesperados

Si bien los expertos ven con claridad algunos efectos de la IA, algunos no se manifestarán más que con el tiempo. Ahora sabemos que las redes sociales han promovido la polarización de la sociedad con los algoritmos que priorizan los conflictos y no tiene enganchados a su consulta constante. Sin embargo no se ha regulado. 

En este sentido Oliver demanda más agilidad de la administración para solucionar los problemas antes de que nos salte. En su centro de investigación en Alicante han establecido una relación en el uso de filtros de belleza de las redes sociales con las fotos de los usuarios que han creado dismorfia.

“El uso de estos filtros genera dismorfia, una alteración entre la percepción de uno mismo en el mundo físico y el mundo digital que puede dar lugar a ansiedad, a la depresión, un aumento exponencial de las cirugías estéticas, por ejemplo en las chicas, adolescentes o, incluso, suicidios. Hemos visto que estos filtros reducen la diversidad, homogenizan la belleza. Las caras embellecidas son todas más similares las unas a las otras que las caras no envejecidas. Esto realmente no es deseable porque deberíamos enfatizar a contribuir a que la sociedad valore la diversidad y a que se aprecie la diferencia y las diferentes maneras de ser bello. Pero estos filtros realmente aplican a un mismo canon de belleza, todas las caras y las homogenizan”, explica Oliver.

Otro efecto que han detectado es que estos filtros tienen un sesgo racial que hace que todas las personas parecen más blancas después de aplicar el filtro. “Es decir, independientemente de tu raza, si te embelleces con estos filtros te vuelves más flaco”, afirma.

Propiedad intelectual 

Otro de los retos que se ha suscitado es el de la propiedad intelectual, estos sistemas aprenden gracias a grandes cantidades de información que hay en Internet, es lo que ha permitido que sean capaces de ser tan realistas. “Han sido entrenados con millones y millones y millones de ejemplos de imágenes, fundamentalmente de Internet, sin haber pedido permiso a nadie para que sus imágenes sean utilizadas para entrenar a estos sistemas. Una de las consecuencias de ello es que tú le puedes pedir que te generen unas ciertas imágenes en el estilo de un cierto artista. Si y muchas veces lo que generan realmente es indistinguible de lo que el artista quizás generaría, pero sin involucrar al artista en ningún momento”, afirma Oliver.

“Eso siempre va a estar en el candelero sea de la forma que sea. También el miedo a que afecte a la propiedad intelectual, el único gran valor “imperecedero” que posee la obra de los artistas y creadores y del que ya tenemos algunos casos donde el uso de la IA ha infringido o se ha “inspirado” en obra existente, modificándose pero no lo suficiente como para que sea reconocible”, afirma Daniel Sánchez.