• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • Un ingeniero propone un nuevo modelo para la forma en que los humanos localizan los sonidos

    Crédito:Instituto de Tecnología de Nueva Jersey

    Uno de los enigmas perdurables de la pérdida auditiva es la disminución de la capacidad de una persona para determinar dónde se origina un sonido. una facultad de supervivencia clave que permite a los animales, desde lagartos hasta humanos, identificar la ubicación del peligro, presas y miembros del grupo. En los tiempos modernos, encontrar un teléfono celular perdido usando la aplicación "Find My Device, "sólo para descubrir que se había deslizado debajo de la almohada de un sofá, se basa en pequeñas diferencias en el zumbido que llega a los oídos.

    A diferencia de otras percepciones sensoriales, como sentir dónde las gotas de lluvia golpean la piel o poder distinguir las notas altas de las bajas en el piano, se debe calcular la dirección de los sonidos; el cerebro los estima procesando la diferencia en el tiempo de llegada a través de los dos oídos, la denominada diferencia horaria interaural (DTI). Un consenso de larga data entre los ingenieros biomédicos es que los humanos localizan los sonidos con un esquema similar a un mapa espacial o una brújula. con neuronas alineadas de izquierda a derecha que se activan individualmente cuando se activan con un sonido procedente de un ángulo determinado, por ejemplo, a 30 grados hacia la izquierda desde el centro de la cabeza.

    Pero en una investigación publicada este mes en la revista eLife , Antje Ihlefeld, director del Laboratorio de Ingeniería Neural para Habla y Audición del NJIT, propone un modelo diferente basado en un código neuronal más dinámico. El descubrimiento ofrece una nueva esperanza, ella dice, que los ingenieros puedan algún día diseñar audífonos, ahora notoriamente pobre en restaurar la dirección del sonido, para corregir este déficit.

    "Si hay un mapa estático en el cerebro que se degrada y no se puede arreglar, que presenta un obstáculo abrumador. Significa que es probable que las personas no puedan "volver a aprender" a localizar bien los sonidos. Pero si esta capacidad perceptiva se basa en un código neuronal dinámico, nos da más esperanzas de reentrenar el cerebro de las personas, "Ihlefeld señala." Programaríamos los audífonos y los implantes cocleares no solo para compensar la pérdida auditiva de un individuo, sino también en función de lo bien que esa persona podría adaptarse al uso de señales de sus dispositivos. Esto es particularmente importante para situaciones con sonido de fondo, donde ningún dispositivo auditivo puede restaurar actualmente la capacidad de seleccionar el sonido objetivo. Sabemos que proporcionar pistas para restaurar la dirección del sonido sería de gran ayuda ".

    Lo que la llevó a esta conclusión es un viaje de trabajo de detective académico que comenzó con una conversación con Robert Shapley, un eminente neurofisiólogo de la Universidad de Nueva York que destacó una peculiaridad de la percepción de la profundidad binocular humana, la capacidad de determinar qué tan lejos está un objeto visual, que también depende de un cálculo que compare la información recibida por ambos ojos. Shapley señaló que estas estimaciones de distancia son sistemáticamente menos precisas para los estímulos de bajo contraste (imágenes que son más difíciles de distinguir de su entorno) que para los de alto contraste.

    Ihlefeld y Shapley se preguntaron si se aplicaba el mismo principio neuronal a la localización del sonido:si es menos preciso para los sonidos más suaves que para los más fuertes. Pero esto se apartaría de la teoría predominante del mapa espacial, conocido como el modelo Jeffress, que sostiene que los sonidos de todos los volúmenes se procesan y, por lo tanto, se perciben de la misma manera. Fisiólogos, que proponen que los mamíferos se basan en un modelo neuronal más dinámico, Hace mucho que no estoy de acuerdo con él. Sostienen que las neuronas de los mamíferos tienden a dispararse a diferentes velocidades dependiendo de las señales direccionales y que el cerebro luego compara estas velocidades entre conjuntos de neuronas para construir dinámicamente un mapa del entorno sonoro.

    "El desafío para probar o refutar estas teorías es que no podemos mirar directamente el código neuronal para estas percepciones porque las neuronas relevantes están ubicadas en el tallo cerebral humano, por lo que no podemos obtener imágenes de alta resolución de ellos, ", dice." Pero teníamos el presentimiento de que los dos modelos darían diferentes predicciones de ubicación de sonido a un volumen muy bajo ".

    Buscaron evidencia en la literatura y encontraron solo dos artículos que se habían registrado a partir del tejido neural con estos sonidos bajos. Un estudio se realizó en lechuzas comunes, una especie que se cree que se basa en el modelo de Jeffress, basado en grabaciones de alta resolución en el tejido cerebral de las aves, y el otro estudio fue en un mamífero, el macaco rhesus, un animal que se cree que utiliza la codificación de velocidad dinámica. Luego reconstruyeron cuidadosamente las propiedades de disparo de las neuronas registradas en estos estudios antiguos y usaron sus reconstrucciones para estimar la dirección del sonido como una función de ITD y volumen.

    "Esperábamos que para los datos de la lechuza común, realmente no debería importar qué tan fuerte sea una fuente, la dirección del sonido predicha debe ser realmente precisa sin importar el volumen del sonido, y pudimos confirmarlo. Sin embargo, lo que encontramos para los datos de los monos es que la dirección del sonido predicha dependía tanto del ITD como del volumen, ", dijo." Luego, buscamos en la literatura humana estudios sobre la dirección del sonido percibida como una función de ITD, que también se pensaba que no dependía del volumen, pero sorprendentemente no encontró evidencia que respalde esta creencia de larga data ".

    Ella y su estudiante de posgrado, Nima Alamatsaz, luego reclutó voluntarios en el campus de NJIT para probar su hipótesis, usar sonidos para probar cómo afecta el volumen donde la gente cree que surge un sonido.

    "Construimos un Sala insonorizada con equipo calibrado especializado que nos permitió presentar sonidos con alta precisión a nuestros voluntarios y grabar donde percibían que se originaba el sonido. Y efectivamente la gente identificó erróneamente los sonidos más suaves, "señala Alamatsaz.

    "Hasta la fecha, somos incapaces de describir los cálculos de localización de sonido en el cerebro con precisión, "añade Ihlefeld." Sin embargo, los resultados actuales son inconsistentes con la noción de que el cerebro humano se basa en un cálculo similar al de Jeffress. En lugar de, parece que dependemos de un mecanismo un poco menos preciso.

    Mas ampliamente, los investigadores dicen, sus estudios apuntan a paralelismos directos en la percepción auditiva y visual que se han pasado por alto hasta ahora y que sugieren que la codificación basada en la velocidad es una operación básica subyacente cuando se calculan las dimensiones espaciales a partir de dos entradas sensoriales.

    "Debido a que nuestro trabajo descubre principios unificadores en los dos sentidos, anticipamos que las audiencias interesadas incluirán científicos cognitivos, fisiólogos y expertos en modelado computacional tanto en audición como en visión, ", Dice Ihlefeld." Es fascinante comparar cómo el cerebro usa la información que llega a nuestros ojos y oídos para dar sentido al mundo que nos rodea y descubrir que dos percepciones aparentemente desconectadas, la visión y la audición, pueden de hecho ser bastante similares después de todo. . "


    © Ciencia https://es.scienceaq.com