Los futuros usuarios de audífonos podrán orientar su audición con mayor precisión gracias a la nueva tecnología danesa. Un investigador de la Universidad de Aalborg utiliza el aprendizaje automático para enseñar a un programa informático cómo eliminar el ruido no deseado y mejorar el habla.
Uno de los principales desafíos para las personas con pérdida auditiva es comprender el habla en entornos ruidosos. El problema se conoce como efecto cóctel porque las situaciones en las que muchas personas están hablando al mismo tiempo a menudo hacen que sea muy difícil distinguir lo que dice la persona con la que está hablando.
Aunque la mayoría de los audífonos modernos incorporan varias formas de tecnología de mejora del habla, Los ingenieros todavía están luchando por desarrollar un sistema que produzca una mejora significativa.
Doctor. El estudiante Mathew Kavalekalam del Audio Lab Analysis de la Universidad de Aalborg está utilizando el aprendizaje automático para desarrollar un algoritmo que permite a una computadora distinguir entre palabras habladas y ruido de fondo. El proyecto se realiza en conjunto con investigadores de audífonos de GN Advanced Science y cuenta con el apoyo del Fondo de Innovación de Dinamarca.
La computadora escucha y aprende
"El centro de audición dentro de nuestro cerebro generalmente realiza una serie de cálculos tremendamente complicados que nos permiten enfocarnos en una sola voz, incluso si hay muchas otras personas hablando de fondo, "explica Mathew Kavalekalam, Universidad de Aalborg. "Pero esa habilidad es muy difícil de recrear en una máquina".
Mathew Kavalekalam comenzó con un modelo digital que describe cómo se produce el habla en un cuerpo humano, desde los pulmones a través de la garganta y la laringe, boca y cavidades nasales, dientes, labios, etc.
Usó el modelo para describir el tipo de señal que una computadora debería 'escuchar' cuando intenta identificar una voz que habla. Luego le dijo a la computadora que comenzara a escuchar y aprender.
El ruido no es solo ruido
"El ruido de fondo varía según el entorno, desde el ruido de la calle o del tráfico si está afuera hasta el ruido de las personas que hablan en un pub o una cafetería, "Dice Mathew Kavalekalam." Esa es una de las muchas razones por las que es tan complicado construir un modelo para mejorar el habla que filtre el habla que desea escuchar de los balbuceos que no le interesan ".
En la Universidad de Aalborg, Mathew Kavalekalam reprodujo varias grabaciones de voces hablando con la computadora y gradualmente agregó diferentes tipos de ruido de fondo a un nivel creciente.
Al aplicar este aprendizaje automático, el software de computadora desarrolló una forma de reconocer los patrones de sonido y calcular cómo mejorar el sonido particular de las voces que hablan y no el ruido de fondo.
Mejora del quince por ciento
El resultado del trabajo de Kavalekalam es un software que puede ayudar eficazmente a las personas con pérdida auditiva a comprender mejor el habla. Es capaz de identificar y mejorar las palabras habladas incluso en entornos muy ruidosos.
Hasta ahora, el modelo se ha probado en diez personas que han estado comparando el habla y el ruido de fondo con y sin el uso del algoritmo de Kavalekalam.
Se pidió a los sujetos de prueba que realizaran tareas sencillas relacionadas con el color, números y letras que se les describieron en entornos ruidosos.
Los resultados indican que es posible que Kavalekalam haya desarrollado una solución prometedora. La percepción del habla de los sujetos de prueba mejoró en un quince por ciento en entornos muy ruidosos.
Procesamiento de señal rápido
Sin embargo, Todavía queda trabajo por hacer antes de que el software de Mathew Kavalekalam llegue a los nuevos audífonos. La tecnología debe ajustarse y ajustarse antes de que sea prácticamente aplicable.
El algoritmo debe optimizarse para que ocupe menos potencia de procesamiento. Aunque la tecnología es cada vez más rápida y poderosa, existen limitaciones de hardware en pequeñas, audífonos modernos.
"Cuando se trata de mejorar el habla, el procesamiento de la señal debe ser realmente ágil. Si el sonido se retrasa en el audífono, se desincroniza con los movimientos de la boca y eso terminará confundiéndote aún más, "explica Mathew Kavalekalam.