Crédito:CC0 Public Domain
Se podría enseñar a los robots a reconocer las emociones humanas de nuestros movimientos, muestra un nuevo estudio.
Los investigadores encontraron que los humanos podían reconocer la emoción, tristeza, agresión, y aburrimiento por la forma en que se movía la gente, incluso si no pudieran ver sus expresiones faciales o escuchar su voz.
Sus hallazgos sugieren que los robots podrían aprender a usar los mismos movimientos, junto con las expresiones faciales y el tono de voz, reconocer los estados internos humanos.
Genera la posibilidad de que los robots, ya se utiliza para enseñar segundas lenguas, podría reconocer cuando los estudiantes están aburridos, y los robots de servicio al cliente podrían identificar cuándo las personas se sienten enojadas o estresadas.
Dra. Charlotte Edmunds, de Warwick Business School, dijo:"Uno de los principales objetivos en el campo de la interacción humano-robot es crear máquinas que puedan reconocer las emociones humanas y responder en consecuencia.
"Nuestros resultados sugieren que es razonable esperar un algoritmo de aprendizaje automático, y en consecuencia un robot, reconocer una variedad de emociones e interacciones sociales mediante movimientos, poses y expresiones faciales. Las aplicaciones potenciales son enormes ".
El estudio fue realizado por investigadores de Warwick Business School, Universidad de Plymouth, Donders Center for Cognition en Radboud University en los Países Bajos, y el Laboratorio de Robótica de Bristol en la Universidad del Oeste de Inglaterra. Se publica en la revista Fronteras en robótica e inteligencia artificial .
El equipo de psicólogos e informáticos filmó parejas de niños jugando con un robot y una computadora integrados en una mesa con una pantalla táctil.
Los videos se mostraron a 284 participantes del estudio, a quienes se les pidió que decidieran si los niños estaban emocionados, aburrido, o triste. También se les preguntó si los niños estaban cooperando, compitiendo o si uno de los niños había asumido un papel dominante en la relación.
Algunos participantes vieron los videos originales. Un segundo grupo vio el metraje reducido a figuras de 'stickman' que mostraban exactamente los mismos movimientos.
Los miembros de ambos grupos acordaron la misma etiqueta emocional para los niños, más a menudo de lo que se esperaría si estuvieran adivinando.
Luego, los investigadores entrenaron un algoritmo de aprendizaje automático para etiquetar los clips, identificar el tipo de interacción social, las emociones en exhibición, y la fuerza del estado interno de cada niño, permitiéndole comparar qué niño se sintió más triste o emocionado.
El Dr. Edmunds dijo:"Los servicios de entrega de robots ya se están probando, pero la gente tiende a atacarlos o destrozarlos, a menudo porque se sienten amenazados.
“El objetivo es crear un robot que pueda reaccionar a las emociones humanas en situaciones difíciles y salir de problemas sin tener que ser monitoreado o decirle qué hacer.
"Eso no sucede en este momento, porque los robots tienden a seguir las secuencias de comandos ".
Madeleine Bartlett, de la Universidad de Plymouth, dijo:"Es importante que un robot social pueda reconocer los estados internos humanos, como el estrés, y su fuerza o severidad.
"Los diferentes niveles de estrés requieren diferentes respuestas. El estrés de bajo nivel puede requerir que el robot se aleje del humano, mientras que un alto nivel de estrés podría abordarse mejor si el robot se disculpa y abandona la interacción ".