• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • Decodificación de audífonos experimentales controlados por el cerebro, identifica a quién quieres escuchar

    El audífono experimental controlado por el cerebro del Dr. Mesgrani (representado en la pantalla) ofrece una solución prometedora al problema del cóctel que afecta a los audífonos actuales. Crédito:Diane Bondareff para Columbia Technology Ventures

    Nuestros cerebros tienen una habilidad extraordinaria para captar voces individuales en un entorno ruidoso, como una cafetería llena de gente o una calle concurrida de la ciudad. Esto es algo que incluso los audífonos más avanzados luchan por hacer. Pero ahora los ingenieros de Columbia están anunciando una tecnología experimental que imita la aptitud natural del cerebro para detectar y amplificar una voz entre muchas. Impulsado por inteligencia artificial, este audífono controlado por el cerebro actúa como un filtro automático, monitorear las ondas cerebrales de los usuarios y aumentar la voz en la que quieren enfocarse.

    Aunque todavía se encuentra en las primeras etapas de desarrollo, la tecnología es un paso significativo hacia mejores audífonos que permitirían a los usuarios conversar con las personas que los rodean de manera fluida y eficiente. Este logro se describe hoy en Avances de la ciencia .

    "El área del cerebro que procesa el sonido es extraordinariamente sensible y poderosa; puede amplificar una voz sobre otras, aparentemente sin esfuerzo, mientras que las ayudas para las audiencias de hoy todavía palidecen en comparación, "dijo Nima Mesgarani, Doctor., investigador principal del Mortimer B. Zuckerman Mind Brain Behavior Institute de Columbia y autor principal del artículo. "Al crear un dispositivo que aprovecha el poder del propio cerebro, Esperamos que nuestro trabajo conduzca a mejoras tecnológicas que permitan a los cientos de millones de personas con discapacidad auditiva en todo el mundo comunicarse con la misma facilidad que sus amigos y familiares ".

    Los audífonos modernos son excelentes para amplificar el habla al tiempo que suprimen ciertos tipos de ruido de fondo, como el tráfico. Pero luchan por aumentar el volumen de una voz individual sobre otras. Los científicos llaman a esto el problema de los cócteles, llamado así por la cacofonía de voces que se mezclan durante las fiestas ruidosas.

    "En lugares concurridos, como fiestas, los audífonos tienden a amplificar todos los altavoces a la vez, "dijo el Dr. Mesgarani, quien también es profesor asociado de ingeniería eléctrica en Columbia Engineering. "Esto obstaculiza gravemente la capacidad del usuario para conversar de forma eficaz, esencialmente aislándolos de las personas que los rodean ".

    El audífono controlado por cerebro del equipo de Columbia es diferente. En lugar de depender únicamente de amplificadores de sonido externos, como micrófonos, también monitorea las propias ondas cerebrales del oyente.

    Los ingenieros de Columbia están anunciando una tecnología experimental que imita la aptitud natural del cerebro para detectar y amplificar una voz entre muchas. Impulsado por inteligencia artificial, este audífono controlado por el cerebro actúa como un filtro automático, monitorear las ondas cerebrales de los usuarios y aumentar la voz en la que quieren enfocarse. Crédito:Instituto Zuckerman de Columbia

    "Previamente, habíamos descubierto que cuando dos personas se hablan, las ondas cerebrales del hablante comienzan a parecerse a las ondas cerebrales del oyente, "dijo el Dr. Mesgarani.

    Usando este conocimiento, el equipo combinó poderosos algoritmos de separación de voz con redes neuronales, modelos matemáticos complejos que imitan las capacidades computacionales naturales del cerebro. Crearon un sistema que primero separa las voces de los hablantes individuales de un grupo, y luego compara las voces de cada hablante con las ondas cerebrales de la persona que escucha. El hablante cuyo patrón de voz se asemeja más a las ondas cerebrales del oyente se amplifica sobre el resto.

    Los investigadores publicaron una versión anterior de este sistema en 2017 que, mientras promete, tenía una limitación clave:tenía que estar preentrenado para reconocer a hablantes específicos.

    "Si estás en un restaurante con tu familia, ese dispositivo reconocería y decodificaría esas voces por ti, "explicó el Dr. Mesgarani." Pero tan pronto como una nueva persona, como el camarero, llegó, el sistema fallaría ".

    El avance de hoy resuelve en gran medida ese problema. Con fondos de Columbia Technology Ventures para mejorar su algoritmo original, Dr. Mesgarani y los primeros autores Cong Han y James O'Sullivan, Doctor., nuevamente aprovechó el poder de las redes neuronales profundas para construir un modelo más sofisticado que podría generalizarse a cualquier hablante potencial que el oyente encontrara.

    "Nuestro resultado final fue un algoritmo de separación de voz que funcionó de manera similar a las versiones anteriores, pero con una mejora importante, ", dijo el Dr. Mesgarani." Podría reconocer y decodificar una voz, cualquier voz, desde el principio ".

    Esta tecnología funciona imitando lo que haría normalmente el cerebro. Primero, el dispositivo separa automáticamente varios altavoces en flujos separados, y luego compara cada hablante con los datos neuronales del cerebro del usuario. El altavoz que mejor se adapta a los datos neuronales de un usuario se amplifica por encima de los demás. Crédito:Nima Mesgarani / Instituto Zuckerman de la Universidad de Columbia

    Para probar la efectividad del algoritmo, los investigadores se asociaron con Ashesh Dinesh Mehta, MARYLAND, Doctor., neurocirujano del Instituto de Neurología y Neurocirugía de Northwell Health y coautor del artículo de hoy. El Dr. Mehta trata a pacientes con epilepsia, algunos de los cuales deben someterse a cirugías regulares.

    "Estos pacientes se ofrecieron como voluntarios para escuchar a diferentes oradores mientras monitoreábamos sus ondas cerebrales directamente a través de electrodos implantados en el cerebro de los pacientes, ", dijo el Dr. Mesgarani." Luego aplicamos el algoritmo recientemente desarrollado a esos datos ".

    El algoritmo del equipo rastreó la atención de los pacientes mientras escuchaban a diferentes oradores que no habían escuchado previamente. Cuando un paciente se centró en un hablante, el sistema amplificó automáticamente esa voz. Cuando su atención se centró en un hablante diferente, los niveles de volumen cambiaron para reflejar ese cambio.

    Animados por sus resultados, los investigadores ahora están investigando cómo transformar este prototipo en un dispositivo no invasivo que se puede colocar externamente en el cuero cabelludo o alrededor de la oreja. También esperan mejorar y refinar aún más el algoritmo para que pueda funcionar en una gama más amplia de entornos.

    "Hasta aquí, solo lo hemos probado en un ambiente interior, ", dijo el Dr. Mesgarani." Pero queremos asegurarnos de que pueda funcionar igual de bien en una calle concurrida de la ciudad o en un restaurante ruidoso, para que dondequiera que vayan los usuarios, pueden experimentar plenamente el mundo y las personas que los rodean ".


    © Ciencia https://es.scienceaq.com