A Joaquín Quiñonero sus padres le preguntaron si estaba seguro de lo que estaba estudiando. A principios de siglo, y “mucho antes de que la inteligencia artificial (IA) le interesase a nadie”, este ingeniero de telecomunicaciones se especializó en machine learning y no estaba seguro de encontrar trabajo. Pero sí lo hizo. Pasó por Microsoft y, en 2012, tras visitar a un amigo suyo en California, fichó por Facebook. “Me quedé impresionado por el dinamismo de la empresa y por el impacto que estaba teniendo en el mundo… Me quedó clarísimo que yo quería trabajar ahí”, recuerda.

Ahora, después de trabajar en la aplicación del machine learning en anuncios y de llevar las “ideas de pizarra” a los productos de la red social, Quiñonero es director de ingeniería en Facebook. El es uno de los responsables de que los algoritmos de inteligencia artificial que utiliza la compañía fundada por Mark Zuckerberg no tengan sesgos y detecten las publicaciones que violan las políticas de contenido de Facebook: cuentas falsas, pornografía infantil, desinformación… Tras el escándalo de la consultora británica Cambridge Analytica y el uso de datos de los usuarios con fines electorales, la red social ha endurecido sus políticas contra las noticias falsas o anuncios políticos, aunque siguen siendo objeto de polémica.

El trabajo de Quiñonero y su equipo con la inteligencia artificial va más allá. El alicantino hablará este lunes de su experiencia en la inauguración del II Congreso Internacional de inteligencia artificial que organiza El Independiente e impulsa Suma innova.

Pregunta.- ¿Cómo fue su camino hasta llegar a Facebook?

Respuesta.- Yo estudié telecomunicaciones en la Universidad Carlos III de Madrid y terminé en el 2001, luego hice un doctorado en aprendizaje de machine learning, del 2001 al 2004, mucho antes de que la inteligencia artificial le interesase a nadie. Recuerdo tener conversaciones con mis padres en los que preguntaban si estaba seguro de lo que estaba haciendo porque eso sonaba como a una cosa muy extraña. Terminé mi doctorado en Alemania, lo hice en machine learning, cuando a nadie le interesaba, cuando era un tema extraño. Yo estaba inseguro de no saber si iba a encontrar trabajo después. Acabe contratado por Microsoft en Cambridge y ahí es donde me entró un poco la pasión por los temas más aplicados. Ese fue mi contacto con la industria.  

En el 2012 visité a un amigo mío que estaba trabajando en Facebook, en California, y me quedé impresionado por el dinamismo de la empresa y por el impacto que estaba teniendo en el mundo. Me quedó clarísimo que yo quería trabajar ahí. Yo le visité un viernes, organizaron la entrevista durante el fin de semana y a la semana siguiente ya tenía una oferta y me vine a California con mi familia. Empecé con un equipo bastante pequeño, que estaba centrado en hacer machine learning para anuncios y, poco a poco, me di cuenta de que lo más importante que teníamos que hacer era intentar construir herramientas que permitieran acelerar la investigación en la producción. Ir de ideas de pizarra, de algoritmos nuevos, a poder aplicarlos en productos. Empecé a contratar gente y tuvimos muchísimo éxito con los anuncios y luego otros equipos empezaron a adoptar lo que estábamos construyendo. Al final, el 25% de los ingenieros de software que trabajan en Facebook utilizan las herramientas que hemos construido.

Nuestra capacidad de encontrar publicaciones y cuentas que violan nuestras políticas está avanzando a una velocidad tremenda»

P.- Ahora trabajas en la responsabilidad de los algoritmos de inteligencia artificial que utilizáis en Facebook. ¿Qué hacéis exactamente?

R.- Nuestra forma de pensar es como la un análisis end to end, desde saber cuál es la intención del algoritmo que estamos creando hasta como funciona en la red. Un ejemplo: en Facebook tenemos un producto para que la gente busque trabajos locales y, en cierto modo, temporales, que está teniendo un impacto tremendo. La inteligencia artificial se utiliza para recomendar los trabajos a la gente. La preocupación, en este caso, puede ser que la IA refleje sesgos que existen en la sociedad y lo que se quiere evitar es que determinado sector de la población vea oportunidades de trabajo que sistemáticamente sean mejores que para otros. Otro ejemplo de lo que hacemos es la detección de contenido falso o de desinformación; asegurarse que los algoritmos funcionan igual de bien para  todos los tipos de contenido, que no se juzgue a uno más o menos duramente que a otro y el tratamiento sea igual para todos.  

P.- Facebook ha desactivado en los últimos meses, entre abril y septiembre, 3.200 millones de cuentas falsas y cerca de 11,4 millones de contenidos que incitaban al odio, un crecimiento considerable respecto a los 5,8 millones del primer trimestre. ¿Cada vez se utiliza más esta red social más para propagar este tipo de contenidos o es qué estáis logrando detectarlos mejor?  

R.- Es mucho más fácil responder a la segunda hipótesis que a la primera. El problema de medición es muy difícil porque en Facebook se comparten más de 1.000 millones de publicaciones al día. Cualquier medición sobre la cantidad de contenido malo es difícil. El hecho de que se haya casi doblado la cantidad de este tipo de contenido que hemos detectado en los últimos seis meses se debe, efectivamente, a que hemos hecho mejoras espectaculares en inteligencia artificial. Nuestra capacidad de encontrar publicaciones y cuentas que violan nuestras políticas está avanzando a una velocidad tremenda. Hace varios años, cuando empecé a construir este equipo, la forma tradicional de encontrar el contenido malo era que algún usuario nos lo reportaba. Ahora, el 99 % del contenido malo en muchas categorías lo detecta la inteligencia artificial antes de que lo vea ninguna persona.

P.- ¿Qué avances está haciendo Facebook en inteligencia artificial?

R.- Uno de los factores que más limita a la inteligencia artificial es el etiquetado, el hecho de que el algoritmo necesita datos para su entrenamiento. Por ejemplo, si tenemos un discurso de odio en varios lenguajes, se necesita para cada uno de ellos una colección de ejemplos buenos y malos. Lo que ocurre es que la capacidad para etiquetar datos está limitada porque necesitas a humanos que revisen ese contenido y que lo etiqueten como bueno o malo. Ese trabajo tiene un límite: no puedes revisar cierta cantidad al día o al mes. En Facebook ahora estamos invirtiendo muchísimo en el ‘aprendizaje auto supervisado’ [permitir que las máquinas aprendan a través de los datos], con el que los algoritmos pueden aprender de volúmenes muy grandes de texto que no están etiquetados. En este caso, lo que hace el algoritmo es comprender la estructura fundamental del lenguaje y el contexto semántico de la frase. Lo bonito es que podemos entrenarlos a la vez en datos que están en muchos idiomas, lo que permite que la capacidad de aprendizaje una vez estableces las etiquetas sea bestial.

La desinformación es una cosa, violar nuestros estándares de contenido otra»

Otro de los ejemplos es la ‘visión computacional’. Uno de los problemas que tenemos para detectar imágenes con contenido no permitido es que, por ejemplo, la gente vende drogas en Facebook de forma más sofisticada: utilizan una foto de lo que parecen unos corn flakes, aparentando ser comida, y, en realidad, están bañados en marihuana. En ‘visión computacional’ se utiliza la misma técnica de aprender de las imágenes aunque estas no tengan etiquetas. Me gusta utilizar el ejemplo de la forma en la que aprenden los niños. Si tú a un bebé que aprende a hablar le enseñas un árbol es capaz de señalarte muchos otros árboles que nunca ha visto antes, y eso es porque su sistema visual, aunque tu madre o padre no te lo diga –en el caso de las máquinas, que no haya etiquetas- vas aprendiendo la estructura de lo que existe en el mundo. El otro avance es el ‘aprendizaje multimodal’. Una publicación de Facebook normalmente tiene texto, imágenes, vídeos, sonidos… El ‘aprendizaje multimodal’ lo que hace es aprender simultáneamente de todas estas señales.

P.- ¿Y que pasará cuando se perfeccionen estas tecnologías? 

R.- El camino de la inteligencia artificial es largo pero, sin duda, estos avances están teniendo un impacto significativo. A corto plazo, permitirán seguir mejorando muchísimo en nuestra capacidad de detectar contenido dañino. También estamos invirtiendo muchísimo en los deepfakes [imágenes en las que se remplaza la cara de una persona por otra utilizando inteligencia artificial] es un problema tremendamente difícil,  donde el ‘aprendizaje auto supervisado’ y ‘multimodal’ nos van a ayudar mucho. Es un campo muy complicado y en el que estamos empezando a trabajar.

P.- Mensajes sobre suicidio, propaganda terrorista, pornografía infantil… ¿Qué tipo de contenidos, por la tecnología que existe ahora mismo, son más fáciles de detectar?  

R.- La pornografía y la desnudez, el spam publicitario, el clickbait… es un problema que está casi resuelto. Las cuentas falsas son bastante fáciles de detectar. La violencia también. Contenido de odio como el bullying o el acoso son comportamientos ofensivos que están bastante relacionados con el contenido de odio y que son más difíciles de detectar. Hay una línea mucho más delgada al calificar algo como acoso o no acoso, es menos blanco o negro.

P.- ¿Y aquellas publicaciones que, o bien son completamente falsas, o mezclan la verdad con la mentira para desinformar?

R.- Las noticias falsas o la desinformación serían más difíciles de detectar por una serie de motivos. En primer lugar es complicado generar conjuntos de datos muy grandes sobre este tipo de contenidos, el coste es tremendo y hace falta duplicar organizaciones de expertos. Pero, aunque tuvieras muchos datos de entrenamiento para el algoritmo de inteligencia artificial, siguen estando un poco en la frontera de lo veraz y lo no veraz y, cuanto más estés de esa frontera, más difícil es para algoritmo acertar, y la probabilidad de error es más grande.  

En estos casos, los ajustes sobre cómo utilizar la inteligencia artificial deben de ser más conservadores. El algoritmo de inteligencia artificial no puede tener un umbral de decisión demasiado bajo al señalar un contenido como desinformación, tiene que ser alto. Si exiges que la inteligencia artificial siempre tenga la razón, únicamente podrás tener en cuenta un volumen pequeño de sus predicciones porque el número de casos en los que la IA esté segura de sí misma en este caso es más pequeño.

El problema es que la IA sigue siendo como un niño pequeño superdotado, pero que no tiene la sabiduría, el juicio o el sentido común de una persona»

P.- ¿No cree que es contradictorio la decisión de Facebook de publicar anuncios que contengan declaraciones falsas o mentiras y trabajar, a su vez, en la detección de contenidos o cuentas falsas? 

R.- Mark [Zuckerberg] ha hablado muchísimo sobre esto y ha explicado la posición de Facebook al respecto. Lo que diré es un énfasis en una distinción. Nosotros distinguimos entre muchísimos tipos de violaciones de contenido: la desinformación o cierto nivel de falsedad es una cosa, el violar nuestros estándares de contenido… eso es mucho más extenso y tiene muchas categorías, es otra. Eso se aplica a todo, incluyendo a los anuncios políticos. Pero para la respuesta de nuestra política sobre anuncios políticos me refiero a lo que Marck Zuckemberg ha dicho públicamente. 

P.- ¿Cuáles son ahora mismo los límites de la IA en este aspecto? 

R.- Una de las limitaciones para la inteligencia artificial es la comprensión del contexto, del sentido común y ciertas sutilezas. Un área bastante difícil sigue siendo el contenido de odio. Imagina que yo esté hablando con un amigo español, hay palabras que se utilizan de forma cariñosa que en un contexto distinto podrían considerarse insultos y que sacadas de contexto pueden ser calificadas como contenido de odio. Esto se extiende a muchas culturas, como la comunidad gay o la afroamericana. Dentro de un diálogo también puede haber ataques donde el tono de voz cambia o el contexto previo a la conversación es importante para entender lo que se está diciendo. Esto sigue siendo un desafío para la IA en el que se está trabajando mucho y que no está resuelto. El problema es que la IA sigue siendo como un niño pequeño superdotado al que entrenas para hacer tareas pequeñas pero que no tiene la sabiduría, el juicio o el sentido común de una persona con mucha experiencia. Ese sentido común y esa capacidad de pensar lateralmente es algo que todavía está en desarrollo dentro de la IA.