Inteligencia artificial & Ciencia II Congreso Internacional de Inteligencia Artificial

Así trabaja Facebook con la inteligencia artificial para identificar el odio

El director de applied machine learning de la red social con más usuarios del mundo ha explicado en Alicante cómo diseñan sus algoritmos para que detecten las cuentas y publicaciones que violan sus estandáres éticos

logo
Así trabaja Facebook con la inteligencia artificial para identificar el odio

Joaquín Quiñonero, en el II Congreso Internacional de IA de Alicante. EFE

Resumen:

Coger el móvil, deslizar el dedo hasta la app de Facebook y sumergirse en un sinfín de noticias, vídeos, publicaciones de amigos… Por la red social de Mark Zuckerberg pasan al día millones de usuarios y miles de publicaciones. Pero, al igual que en el mundo físico, hay quién se salta la ética y decide difundir noticias falsas, anuncios de droga, acoso, racismo… Una de las personas que lucha por esta “justicia” en la red social es Joaquín Quiñonero, director de applied machine learning en Facebook. Su ‘arma’: la inteligencia artificial.

Quiñonero llegó a Facebook después de pasar por Microsoft y especializarse en machine learning cuando aún no era un tema de conversación en el mundo de la Tecnología. Después de aplicar sus conocimientos a los anuncios, este ingeniero nacido en Alicante comenzó a aplicar los algoritmos a otros productos de Facebook. Desde hace un tiempo es uno de los responsables en identificar, por ejemplo, contenidos que violen la política de contenidos de la compañía.

Este lunes, después de viajar desde California, Quiñonero ha explicado a cientos de personas cómo trabaja su equipo en algoritmos que tengan en cuenta la “justicia” para eliminar todo el contenido que sortea lo ético y alienta el odio. “A lo que podemos aspirar es que el porcentaje de contenido que se quite a través de la inteligencia artificial sea el máximo posible”, ha asegurado en el auditorio de la Diputación de Alicante, que acoge este lunes el II Congreso Internacional de Inteligencia Artificial, que organiza El Independiente e impulsa Suma Innova.

Los últimos datos publicados por Facebook ponen de manifiesto cómo está revolucionando esta tecnología su lucha contra este grave problema: en los últimos meses han eliminado cerca de 3.200 millones de cuentas falsas y más de 11 millones de publicaciones que incitaban al odio. Una cifra muy por encima de otras estadísticas anteriores. Durante su intervención, Quiñonero ha puesto varios ejemplos de lo complicado que continúa siendo para los algoritmos detectar algunos engaños en la red.

¿Brócoli o marihuana? Con esa pregunta el experto ha querido representar a qué tipo de fraudes se enfrentan los algoritmos. La inteligencia artificial también está detrás de la identificación de las personas que aparecen en las fotografías o vídeos. La compañía probó un algoritmo que identificaba, precisamente, a humanos en movimiento pero que no lograba reconocer a una mujer de raza negra. “En los proyectos de inteligencia artificial inclusiva los algoritmos tenían que funcionar igual de bien para diferentes géneros y tonos de piel”, ha explicado. Y en eso están, aunque de momento es indispensable un trabajo conjunto entre personas y algoritmos.

Como la “IA perfecta no existe todavía”, los algoritmos cometen errores. Unos fallos que son menos comunes, por ejemplo, a la hora de percatarse qué es y qué no es pornografía infantil o propaganda terrorista pero que sí que pueden ser más frecuentes al identificar algo como desinformación. También aquello en lo que los matices, el contexto o la jerga es importante para comprender una imágen o una conversación. Los algoritmos, por tanto, pueden dar “falsos negativos” –cuando dicen que una publicación cumplen sus estándares de contenido pero, en realidad, los violan- y “falsos positivos” –cuando señalan como negativa a una publicación que, en realidad, es buena-.

Comentar ()