• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  •  science >> Ciencia >  >> Astronomía
    El equipo creó técnicas para analizar miles de horas de cinta de la NASA

    De izquierda a derecha:Dr. John H.L. Hansen, Chengzhu Yu PhD'17, El Dr. Abhijeet Sangwan y Lakshmish Kaushik posan con un modelo de astronauta en el Centro Espacial Johnson de la NASA en Houston. Los cuatro supervisaron el proyecto para desarrollar técnicas de procesamiento de voz para reconstruir y transformar miles de horas de audio de las misiones lunares de la NASA. Crédito:Universidad de Texas en Dallas

    La NASA grabó miles de horas de audio de las misiones lunares Apolo, sin embargo, la mayoría de nosotros solo hemos podido escuchar los aspectos más destacados.

    La agencia registró todas las comunicaciones entre los astronautas, especialistas en control de misión y personal de apoyo en la trastienda durante las históricas misiones lunares, además de las famosas citas de Neil Armstrong del Apolo 11 en julio de 1969.

    La mayor parte del audio permaneció almacenado en cintas analógicas obsoletas durante décadas hasta que los investigadores de la Universidad de Texas en Dallas lanzaron un proyecto para analizar el audio y hacerlo accesible al público.

    Los investigadores del Center for Robust Speech Systems (CRSS) de la Escuela de Ingeniería y Ciencias de la Computación Erik Jonsson (ECS) recibieron una subvención de la National Science Foundation en 2012 para desarrollar técnicas de procesamiento de voz para reconstruir y transformar el archivo masivo de audio en Explore Apollo , un sitio web que proporciona acceso público a los materiales. El proyecto, en colaboración con la Universidad de Maryland, incluía audio de todo el Apolo 11 y la mayor parte del Apolo 13, Misiones Apolo 1 y Gemini 8.

    Un salto tecnológico gigante

    Transcribir y reconstruir el enorme archivo de audio requeriría un gran salto en el procesamiento del habla y la tecnología del lenguaje. las comunicaciones se capturaron en más de 200 cintas analógicas de 14 horas, cada uno con 30 pistas de audio. La solución necesitaría descifrar la comunicación con habla confusa, interferencia técnica y bucles de audio superpuestos. Imagine a Siri de Apple tratando de transcribir discusiones en medio de interrupciones aleatorias y hasta 35 personas en diferentes lugares. a menudo hablando con acentos regionales de Texas.

    El proyecto, dirigido por el fundador y director de CRSS, el Dr. John H.L. Hansen y el científico investigador Dr. Abhijeet Sangwan, Incluyó un equipo de estudiantes de doctorado que trabajaron para establecer soluciones para digitalizar y organizar el audio. También desarrollaron algoritmos para procesar, reconocer y analizar el audio para determinar quién dijo qué y cuándo. Los algoritmos se describen en la edición de noviembre de Transacciones IEEE / ACM en audio, Habla, y procesamiento del lenguaje .

    Siete equipos de diseño senior de pregrado supervisados ​​por CRSS ayudaron a crear Explore Apollo para hacer que la información sea de acceso público. El proyecto también contó con la asistencia del Centro de Educación en Ciencias e Ingeniería de la Universidad (SEEC), que evaluó el sitio Explore Apollo.

    Cinco años después, el equipo está completando su trabajo, lo que ha llevado a avances en la tecnología para convertir voz en texto, analizar a los oradores y comprender cómo las personas colaboraron para cumplir las misiones.

    "CRSS ha realizado avances significativos en el aprendizaje automático y la extracción de conocimientos para evaluar la interacción humana para una de las tareas de ingeniería más desafiantes en la historia de la humanidad, "dijo Hansen, decano asociado de investigación en ECS, profesor de ingeniería eléctrica e informática, profesor de la Facultad de Ciencias del Comportamiento y del Cerebro, y Cátedra Distinguida en Telecomunicaciones.Refining Retro Equipment

    Cuando comenzaron su trabajo, Los investigadores descubrieron que lo primero que tenían que hacer era digitalizar el audio. Transferir el audio a un formato digital resultó ser una hazaña de ingeniería en sí misma. La única forma de jugar los carretes era en un equipo de la década de 1960 en el Centro Espacial Johnson de la NASA en Houston llamado SoundScriber.

    "La NASA nos indicó el SoundScriber y dijo que hagas lo que tengas que hacer, "Dijo Hansen.

    El Dr. John H.L. Hansen se encuentra junto al SoundScriber, el único dispositivo que podía reproducir las grabaciones analógicas de miles de horas de comunicaciones durante las misiones lunares de la NASA. Crédito:Universidad de Texas en Dallas

    El dispositivo solo podía leer una pista a la vez. El usuario tenía que girar mecánicamente un asa para mover el cabezal de lectura de la cinta de una pista a otra. Según la estimación de Hansen, Se necesitarían al menos 170 años para digitalizar solo el audio de la misión Apolo 11 utilizando la tecnología.

    "No pudimos usar ese sistema, así que tuvimos que diseñar uno nuevo ", Dijo Hansen." Diseñamos nuestro propio cabezal de lectura de 30 pistas, y construyó una solución paralela para capturar las 30 pistas a la vez. Esta es la única solución que existe en el planeta ".

    El nuevo cabezal de lectura redujo el proceso de digitalización de años a meses. Esa tarea se convirtió en el trabajo de Tuan Nguyen, un estudiante de último año en ingeniería biomédica que pasó un semestre trabajando en Houston.

    Amplificando las voces de los héroes detrás de los héroes

    Una vez que transfirieron el audio de los carretes a archivos digitales, los investigadores necesitaban crear un software que pudiera detectar la actividad del habla, incluido el seguimiento de cada persona que habla y lo que dijeron y cuándo, un proceso llamado diarización. También necesitaban rastrear las características de los hablantes para ayudar a los investigadores a analizar cómo reacciona la gente en situaciones tensas. Además, las cintas incluían audio de varios canales que debían colocarse en orden cronológico.

    Los investigadores que trabajaron en el proyecto dijeron que una de las partes más desafiantes fue descubrir cómo funcionaban las cosas en la NASA durante las misiones para que pudieran entender cómo reconstruir la enorme cantidad de audio.

    "Esto no es algo que puedas aprender en una clase, ", dijo Chengzhu Yu PhD'17. Yu comenzó su programa de doctorado al comienzo del proyecto y se graduó la primavera pasada. Ahora, trabaja como científico investigador que se centra en la tecnología de reconocimiento de voz en el centro de investigación de inteligencia artificial de Tencent en Seattle.

    Lakshmish Kaushik, un estudiante de doctorado que dejó un trabajo anterior para trabajar en el proyecto, También tiene como objetivo dedicar su carrera a la tecnología de reconocimiento de voz. Su función consistía en desarrollar algoritmos que distinguieran la matriz de voces en múltiples canales.

    "Los últimos cuatro años han sido realmente emocionantes, "Dijo Kaushik.

    El equipo ha realizado una demostración del sitio web interactivo en el Museo Perot de Naturaleza y Ciencia en Dallas. Para Hansen, el proyecto ha sido una oportunidad para destacar el trabajo de muchas personas involucradas en las misiones lunares más allá de los astronautas.

    "Cuando uno piensa en Apolo, gravitamos hacia las enormes contribuciones de los astronautas que claramente merecen nuestro elogio y admiración.

    Sin embargo, los héroes detrás de los héroes representan a los innumerables ingenieros, científicos y especialistas que unieron colectivamente su experiencia basada en STEM para garantizar el éxito del programa Apollo, ", Dijo Hansen." Esperemos que los estudiantes de hoy sigan comprometiendo su experiencia en los campos STEM para abordar los desafíos del mañana ".


    © Ciencia https://es.scienceaq.com