• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • ¿Se puede entrenar a las computadoras para que comprendan el lenguaje corporal?

    Los investigadores de Penn State están explorando si las computadoras pueden ser entrenadas para "leer" el lenguaje corporal de los demás en busca de pistas sobre su estado emocional. como pueden hacerlo los humanos. Crédito:Adobe Stock:Sergio Lamacchia

    Los seres humanos son capaces de "leer" el lenguaje corporal de los demás en busca de pistas sobre su estado emocional. Por ejemplo, darse cuenta de que un amigo está nervioso por sus golpes con el pie, o que un ser querido que está erguido se siente seguro. Ahora, un equipo de investigadores de Penn State está explorando si las computadoras pueden capacitarse para hacer lo mismo.

    El equipo está investigando si las técnicas modernas de visión por computadora podrían igualar la capacidad cognitiva de los humanos para reconocer expresiones corporales en el mundo real. situaciones sin restricciones. Si es así, estas capacidades pueden permitir una gran cantidad de aplicaciones innovadoras en áreas que incluyen la gestión y recuperación de información, seguridad Pública, atención al paciente y redes sociales, dijeron los investigadores.

    "En el futuro, las computadoras y los robots interactuarán con más personas, "dijo James Wang, profesor de la Facultad de Ciencias y Tecnología de la Información (IST) y miembro del equipo de investigación. "Las computadoras de hoy, en gran medida, simplemente siga las órdenes. En el futuro, los robots y las computadoras actuarán más como socios de los humanos y trabajarán juntos. Y para hacerlo necesitarán comprender sus emociones ".

    Yu Luo, candidato a doctorado de la Universidad de IST, trabajar con Wang y otros profesores del equipo, procesó una gran cantidad de clips de película y creó un conjunto de datos de más de 13, 000 personajes humanos con casi 10, 000 movimientos corporales. Según los investigadores, Los estudios han demostrado que el cuerpo humano puede ser más diagnóstico que el rostro para reconocer las emociones humanas.

    "El término en psicología se llama 'socioedición, '", dijo Luo." La gente puede usarlo para manipular su expresión facial, pero es mucho más difícil controlar su cuerpo. El lenguaje corporal proyecta diferentes emociones ".

    Próximo, los investigadores utilizaron métodos de visión por computadora para localizar y rastrear a cada persona en diferentes marcos de la escena, en última instancia, marcando a cada individuo en un clip con un número de identificación único. Finalmente, Los investigadores utilizaron anotadores humanos de colaboración colectiva para revisar los clips de las películas e identificar la emoción de cada individuo que aparece en una de las 26 emociones categóricas. es decir., paz, afecto, estima, anticipación, compromiso, confianza, felicidad, Placer, emoción, sorpresa, simpatía, confusión, desconexión fatiga, vergüenza, anhelo, desaprobación, aversión, molestia, enfado, sensibilidad, tristeza, inquietud temor, dolor y sufrimiento, así como en tres dimensiones de la emoción, es decir., valencia, excitación y dominio.

    "Descubrimos que interpretar las emociones basadas en el lenguaje corporal es complejo, "dijo Wang." Hay muchas sutilezas que estamos tratando de entender. Incluso para los humanos hay muchas inconsistencias.

    "Las personas no están de acuerdo entre sí cuando se trata de interpretar las emociones, ", agregó." Puedes pensar que una persona es feliz, Puedo pensar que están emocionados y quizás ambos tengamos razón. A menudo no hay una verdad fundamental lo que hace que el modelado basado en datos sea un gran desafío ".

    Una vez que los investigadores construyeron el conjunto de datos y aplicaron las anotaciones emocionales percibidas por los humanos para cada individuo, utilizaron técnicas estadísticas de vanguardia para validar sus mecanismos de control de calidad y analizaron a fondo el nivel de consenso de sus etiquetas de datos verificadas. Más lejos, construyeron sistemas automatizados de reconocimiento de emociones a partir de esqueletos humanos y secuencias de imágenes. Específicamente, técnicas de aprendizaje profundo y artesanales, Las funciones basadas en el análisis del movimiento de labán demostraron eficacia para la tarea.

    Descubrieron que el modelo informático podía identificar la excitación, o qué tan energizada se siente la experiencia, con un alto nivel de precisión. Sin embargo, Los investigadores también encontraron que los humanos son mejores que las computadoras para identificar la valencia, qué tan negativa o positiva se siente la experiencia.

    Los resultados actuales fueron posibles gracias a una subvención inicial del College of IST y la investigación en curso está respaldada por un premio reciente del Programa de Premios de Investigación de Amazon. El equipo también recibió recientemente un proyecto de planificación de la National Science Foundation para construir una comunidad para desarrollar la infraestructura de datos que se utilizará en esta investigación.

    Wang y Luo trabajaron con otros investigadores de Penn State en el proyecto, incluido Jianbo Ye, ex estudiante de doctorado y compañero de laboratorio en la Facultad de IST; Reginald Adams y Michelle Newman, profesores de psicología; y Jia Li, profesor de estadística. Recientemente se ha presentado una solicitud de patente provisional, y el trabajo se publicará en un próximo número de la Revista Internacional de Visión por Computador .

    "La barrera de entrada para esta línea de investigación es bastante alta, "dijo Wang." Tienes que usar el conocimiento de la psicología, tienes que desarrollar e integrar métodos de ciencia de datos, y tiene que utilizar modelos estadísticos para recopilar correctamente los datos afectivos. Esto demuestra que estamos a la vanguardia de las ciencias y la tecnología en este importante subdominio de la información ".


    © Ciencia https://es.scienceaq.com