Crédito:Suan Moo, Unsplash.com
Investigadores del Instituto de Tecnología de Karlsruhe (KIT), en Alemania, Recientemente, han aplicado el aprendizaje automático multitarea a la traducción del habla neuronal de baja latencia. Su estudio, que fue prepublicado en ArXiv , aborda algunas de las limitaciones de las técnicas existentes de traducción automática neuronal (NMT).
Los avances en el campo del aprendizaje profundo han llevado a mejoras significativas en el habla humana y la traducción de texto. NMT, un enfoque ampliamente utilizado para la traducción automática, entrena una gran red neuronal para leer una oración y proporcionar una traducción precisa, generalmente modelando oraciones completas en un modelo integrado.
En comparación con los enfoques tradicionales, como la traducción automática estadística o basada en reglas, NMT normalmente logra traducciones más fluidas, tanto para voz como para texto escrito. Si bien puede capturar de manera efectiva dependencias más complejas entre los idiomas de origen y de destino, para tener un buen desempeño de manera consistente, este enfoque requiere cantidades sustanciales de datos de entrenamiento.
"Al aplicar la traducción parcial de oraciones a los sistemas neuronales de traducción automática, nos encontramos con el problema de que el sistema MT solo se ha entrenado en oraciones completas, y, por lo tanto, el decodificador está sesgado para generar oraciones de destino completas, "escribieron los investigadores en su artículo." Al recibir entradas que son oraciones parciales, No se garantiza que las salidas de traducción coincidan exactamente con el contenido de entrada. Observamos que el modelo a menudo 'fantasea' con la traducción como una oración completa, como habría ocurrido en los datos de entrenamiento ".
En otros casos, el decodificador puede caer en un estado de sobregeneración, repitiendo la última palabra que se le dio varias veces en su traducción. Para abordar estos problemas, los investigadores de KIT se centraron en la traducción de voz en los casos en que un NMT necesita proporcionar una traducción inicial en tiempo real, antes de que un hablante haya terminado su oración.
"En este trabajo, Nuestro objetivo es solucionar el problema de la traducción parcial de oraciones en NMT, "escribieron los investigadores". Idealmente, queremos un modelo que sea capaz de generar traducciones apropiadas para oraciones incompletas, sin ningún compromiso durante otros casos de uso de traducción ".
Dado que los conjuntos de datos con oraciones parciales no están fácilmente disponibles, los investigadores crearon datos artificiales que podrían usarse en el proceso de entrenamiento. Entrenaron a la red mediante el aprendizaje multitarea, una estrategia de aprendizaje profundo que se ha utilizado a menudo en el procesamiento del lenguaje natural (PNL) para entrenar un solo modelo para diferentes tareas, reduciendo gastos y mejorando su desempeño.
Su estudio logró resultados prometedores, sugiriendo que los sistemas NMT podrían adaptarse para funcionar bien incluso en los casos en que no se dispone de datos específicos de la tarea, sin perder rendimiento en la tarea original para la que fueron entrenados. "Primero mostramos que las técnicas simples para generar datos artificiales son efectivas para obtener resultados más fluidos con menos corrección, "Los investigadores concluyeron en su artículo." También ilustramos que el aprendizaje multitarea puede ayudar a adaptar el modelo a la nueva condición de inferencia, sin perder la capacidad original de traducir frases completas ".
Su adaptación de NMT logró traducciones de alta calidad a baja latencia, minimizando el número de palabras corregidas en un 45 por ciento. En el futuro, su estudio podría tener implicaciones prácticas significativas, ayudando a desarrollar mejores herramientas para la traducción de voz en tiempo real.
© 2018 Tech Xplore