Saben si estamos tristes. Si nos preocupa algo. Si estamos en paz. Pero a las inteligencias artificiales les cuesta identificar las emociones alegres a través de nuestra voz. Un equipo de la National Research University de Moscú y sus ordenadores han enseñado a una red neuronal artificial a inferir estados de ánimo a través de las voces de personas. Lograron un 70% de éxito en tonos neutros o tristes, pero no así en los alegres, según acaban de presentar el el congreso Neuroinformatics 2017.
Las emociones son una de las tradicionales barreras donde ha chocado la inteligencia artificial a la hora de simular el cerebro. "La empatía, el humor, las sensaciones de cariño eran de las pocas áreas seguras para los humanos", apunta a El Independiente el investigador Manuel Cebrián, del MIT Media Lab. "Nosotros en el laboratorio hemos estudiado el impacto de la automatización en varias tareas y sí que parece que el terreno de las emociones, en las profesiones que tienen que ver con la gente, son menos automatizables".
Sin embargo, a día de hoy, algunos científicos sostienen que los ordenadores cuentan con una inteligencia emocional similar a la de un bebé de unos dos años de edad. Para Cebrián, "las distinciones entre habilidad manual y afectiva es un poco arbitraria, pues todo viene del cerebro. Sí que tratamos de atisbar qué cosas que se consideran supercreativas y resulta que las máquinas las pueden hacer en el sentido más básico".
El equipo ruso, liderado por la doctora Anastasia Popova, de la Higher School of Economics, transformaron los sonidos humanos en imágenes, espectros de frecuencias. Éstos les fueron mostrados a las máquinas. Fueron poco a poco aprendiendo qué patrones se repiten en los tonos más tristes o neutrales y más alegres. El objetivo era observar si, ante una afirmación textual como "estoy bien", el interlocutor, en realidad, quiere decir lo contrario, de la misma manera que el tono en que respondemos ante un "¿cómo estás?" marca la verdadera respuesta, por encima de la literalidad de la palabra "bien".
Empatía, clave para los asistentes personales
Siri, Cortana, Alexa... la batalla entre los asistentes personales se libra en el terreno de la empatía. Así lo cree la profesora del MIT Media LabRosalind Picard. Añadir la detección de emociones a la electrónica personal podría mejorarla sustancialmente, según señalaba la autora de Affective Computing a la revista MIT Technology Review.
Según esta revista, los investigadores de Amazon trabajan en desarrollo del altavoz inteligente Echo, encaminado a mejorar las relaciones entre usuarios y la inteligencia artificial del gigante estadounidense.
Los investigadores están explorando nuevas técnicas de procesamiento del lenguaje natural, pero también vías para detectar la emoción de la voz del usuario.
Todas las claves de la actualidad y últimas horas, en el canal de WhatsApp de El Independiente. Únete a nuestro canal de Whatsapp en este enlace.
Te puede interesar
Lo más visto
- 1 Amancio Ortega ingresa la mitad de los 2.845 millones de euros que le corresponden por dividendo de Inditex
- 2 La escalada armamentística de Marruecos y Argelia que debería preocupar a España
- 3 Los tres atajos de Sánchez para renovar el CGPJ sin Feijóo
- 4 El juez del 'caso Begoña Gómez' admitió una querella de Podemos contra un medio e investigó la amenaza con una navaja a Reyes Maroto
- 5 Alfonso Guerra en ‘The Times’: “Sánchez es cada vez más autócrata y está cavando su propia tumba”
- 6 Orriols: "Soy partidaria de preservar el linaje como parte del patrimonio cultural catalán"
- 7 Dos de Mayo, el peor día para Sánchez
- 8 Calendario lunar mayo 2024: todas las fases de la luna y cuándo habrá luna llena
- 9 Las adelfas, esa planta tan bonita que puede provocarte un paro cardíaco