• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • Las redes neuronales artificiales facilitan la vida a los usuarios de audífonos

    Crédito:Oticon

    Para personas con pérdida auditiva, Puede resultar muy difícil entender y separar voces en entornos ruidosos. Este problema pronto pasará a la historia gracias a un nuevo algoritmo innovador que está diseñado para reconocer y separar voces de manera eficiente en entornos de sonido desconocidos.

    Las personas con audición normal generalmente pueden entenderse sin esfuerzo cuando se comunican en entornos ruidosos. Sin embargo, para personas con pérdida auditiva, es muy difícil entender y separar voces en entornos ruidosos, y un audífono realmente puede ayudar. Pero todavía queda mucho camino por recorrer en lo que respecta al procesamiento general del sonido en los audífonos, explica Morten Kolbæk:

    "Cuando el escenario se conoce de antemano, como en ciertas configuraciones de pruebas clínicas, Los algoritmos existentes ya pueden superar el rendimiento humano cuando se trata de reconocer y distinguir a los hablantes. Sin embargo, en situaciones auditivas normales sin ningún conocimiento previo, el cerebro auditivo humano sigue siendo la mejor máquina ".

    Pero esto es exactamente en lo que Morten Kolbæk ha trabajado para cambiar con su nuevo algoritmo.

    "Debido a su capacidad para funcionar en entornos desconocidos con voces desconocidas, la aplicabilidad de este algoritmo es mucho más fuerte que lo que hemos visto con la tecnología anterior. Es un importante paso adelante cuando se trata de resolver situaciones auditivas desafiantes en la vida cotidiana. "dice uno de los dos supervisores de Morten Kolbæk, Jesper Jensen, Investigador principal en Oticon y profesor en el Centro de Investigación de Procesamiento de Señales Acústicas (CASPR) en AAU.

    Profesor Zheng-Hua Tan, quien también está afiliado a CASPR y supervisor del proyecto, está de acuerdo en el gran potencial del algoritmo dentro de una investigación sólida.

    "La clave del éxito de este algoritmo es su capacidad para aprender de los datos y luego construir modelos estadísticos potentes que sean capaces de representar situaciones auditivas complejas. Esto conduce a soluciones que funcionan muy bien incluso en situaciones auditivas nuevas y desconocidas". "explica Zheng-Hua Tan.

    Reducción de ruido y separación de voz.

    Específicamente, El doctorado de Morten Kolbæk. El proyecto se ha ocupado de dos escenarios de escucha diferentes pero bien conocidos.

    La primera pista se propone resolver los desafíos de las conversaciones uno a uno en espacios ruidosos como cabinas de automóviles. Los usuarios de audífonos se enfrentan a estos desafíos con regularidad.

    "Para solucionarlos, Hemos desarrollado algoritmos que pueden amplificar el sonido del altavoz al tiempo que reducen el ruido de manera significativa sin ningún conocimiento previo sobre la situación auditiva. Los audífonos actuales están preprogramados para varias situaciones diferentes, pero en la vida real, el entorno cambia constantemente y requiere un audífono que pueda leer la situación específica al instante, "explica Morten Kolbæk.

    Demostración de un sistema de separación y mejora del habla con un solo micrófono basado en el aprendizaje profundo. El sistema se entrena mediante el entrenamiento invariante de permutación a nivel de enunciado (uPIT) y el sistema es independiente del hablante. Es decir, los altavoces de la demostración no han sido "vistos" por el sistema durante el entrenamiento. Es más, el sistema está diseñado para manejar hasta tres altavoces y no necesita conocimientos sobre el número de altavoces en el momento de la prueba. En otras palabras, el sistema identifica automáticamente el número de altavoces en la entrada. Crédito:Oticon

    La segunda pista del proyecto gira en torno a la separación del habla. Este escenario involucra a varios oradores, y el usuario de audífonos puede estar interesado en escuchar algunos de ellos o todos. La solución es un algoritmo que puede separar voces mientras reduce el ruido. Esta pista puede considerarse una extensión de la primera pista, pero ahora con dos o más voces.

    "Se puede decir que Morten lo descubrió modificando algunas cosas aquí y allá, el algoritmo funciona con varios hablantes desconocidos en entornos ruidosos. Ambas pistas de investigación de Morten son importantes y han atraído mucha atención, "dice Jesper Jensen.

    Redes neuronales profundas

    El método utilizado para crear los algoritmos se denomina "aprendizaje profundo, "que se incluye en la categoría de aprendizaje automático. Más específicamente, Morten Kolbæk ha trabajado con redes neuronales profundas, un tipo de algoritmo que entrena alimentándolo con ejemplos de las señales que encontrará en el mundo real.

    "Si, por ejemplo, hablamos de habla en ruido, le proporciona al algoritmo un ejemplo de una voz en un entorno ruidoso y una de la voz sin ningún ruido. De este modo, el algoritmo aprende a procesar la señal ruidosa para lograr una señal de voz clara. Alimenta la red con miles de ejemplos, y durante este proceso, aprenderá a procesar una voz determinada en un entorno realista, "Jesper Jensen explica.

    "El poder del aprendizaje profundo proviene de su estructura jerárquica que es capaz de transformar señales de voz ruidosas o mixtas en voces limpias o separadas a través del procesamiento capa por capa. El uso generalizado del aprendizaje profundo en la actualidad se debe a tres factores principales:aumento de la potencia de cálculo, aumento de la cantidad de big data para entrenar algoritmos y métodos novedosos para entrenar redes neuronales profundas, "dice Zheng-Hua Tan.

    Una computadora detrás de la oreja

    Una cosa es desarrollar el algoritmo, otra es hacer que funcione en un audífono real. En la actualidad, El algoritmo de Morten Kolbæk para la separación de voz solo funciona a mayor escala.

    "Cuando se trata de audífonos, el desafío es siempre hacer que la tecnología funcione en una pequeña computadora detrás de la oreja. Y en este momento, El algoritmo de Morten requiere demasiado espacio para esto. Incluso si el algoritmo de Mortens puede separar varias voces desconocidas entre sí, no puede elegir qué voz presentar al usuario de audífonos. Por lo tanto, hay algunos problemas prácticos que debemos resolver antes de poder introducirlo en una solución de audífonos. Sin embargo, lo más importante es que estos problemas ahora parecen tener solución ".

    El fenómeno de los cócteles

    Las personas con audición normal a menudo son capaces de concentrarse en un hablante de interés, incluso en situaciones acústicamente difíciles en las que otras personas están hablando simultáneamente. Conocido como el fenómeno de los cócteles, el problema ha generado un área de investigación muy activa sobre cómo el cerebro humano es capaz de resolver este problema tan bien. Con este Ph.D. proyecto, estamos un paso más cerca de resolver este problema, Jesper Jensen explica:

    "A veces escuchas que el problema del cóctel se ha resuelto. Aún no es así. Si el entorno y las voces son completamente desconocidos, que suele ser el caso en el mundo real, La tecnología actual simplemente no puede igualar al cerebro humano, que funciona extremadamente bien en entornos desconocidos. Pero el algoritmo de Morten es un paso importante para lograr que las máquinas funcionen y ayuden a las personas con audición normal y a las personas con pérdida auditiva en esos entornos. " él dice.


    © Ciencia https://es.scienceaq.com