Imagen limpia; arriba a la derecha:información del uno por ciento retenida; abajo a la izquierda:restauración difuminando y aclarando; abajo a la derecha:restauración mediante aprendizaje profundo. Crédito:Laboratorio de Investigación del Ejército
Los científicos del laboratorio de investigación corporativa del Ejército de los EE. UU. Están desarrollando un nuevo algoritmo que podría mejorar la identificación de imágenes y audio para la recopilación de inteligencia en el campo de batalla.
El Dr. Michael S. Lee, científico del Laboratorio de Investigación del Ejército del Comando de Desarrollo de Capacidades de Combate del Ejército de los EE. UU., Y sus colaboradores están desarrollando un algoritmo de aprendizaje profundo llamado autocodificador de acceso directo que puede restaurar clips de audio individuales e imágenes corrompidas por varios tipos de ruido aleatorio.
Lo que distingue su trabajo de los estudios anteriores es que han mejorado la aplicabilidad a las señales 1-D (por ejemplo, habla humana), y están probando contra fuentes de ruido más fuertes de lo que generalmente se considera, es decir., relaciones ruido / señal superiores a 1,0.
"El aprendizaje profundo es bien conocido por ser capaz de detectar objetos en imágenes con precisión, pero también es capaz de sintetizar datos de apariencia realista, como se observa en la recientemente popular FaceApp, ", Dijo Lee." En nuestro trabajo, utilizamos el aprendizaje profundo para reconstruir una imagen basada en información de entrada limitada, por ejemplo, con solo el uno por ciento de los canales de píxeles retenidos ".
Lee dijo que el modelo de su equipo está entrenado con una gran cantidad de datos de cómo se ven otras imágenes reales, y se puede usar una variante de su modelo de imagen para reconstruir el habla humana a partir de señales de audio ruidosas incluso cuando el ruido es mucho más fuerte que la señal.
Según Lee, Las aplicaciones objetivo del Ejército son numerosas, incluyendo escuchas clandestinas, demodular las comunicaciones en presencia de fuertes interferencias y la percepción de objetos en la imagen / video que se oscurecen intencionalmente, por la oscuridad (poca luz) o por eventos climáticos como niebla y lluvia.
"A corto plazo, esta tecnología podría proporcionar una función de 'Zoom / Mejorar' para los analistas de inteligencia, ", Dijo Lee." A largo plazo, este tipo de tecnología puede integrarse sin problemas en el hardware de una cámara para mejorar la calidad de imagen en varios escenarios, como con poca luz y niebla ".
Además de las aplicaciones del Ejército, Lee señaló que el sector comercial también podría beneficiarse de esta tecnología.
"En entornos con poco ancho de banda, como áreas alejadas de torres de telefonía celular, algoritmos como el nuestro podrían proporcionar llamadas telefónicas más claras, "Dijo Lee." Los autos autónomos pueden beneficiarse de esta tecnología en escenarios climáticos extremos como lluvia y niebla para inferir qué objetos están más adelante. Las cámaras de video comerciales podrán operar en condiciones de poca luz con velocidades de cuadro más altas y / o tiempos de exposición más bajos ".
Este trabajo aborda los desafíos dentro del Comando de la Red, Control, Equipo Interfuncional de Comunicación e Inteligencia.
"Parte de la misión de CCDC ARL es explorar el ámbito de lo que es posible, "Dijo Lee." Aquí, mostramos que más allá de la detección y clasificación, el aprendizaje automático se puede utilizar para dilucidar señales e imágenes débiles y / o ruidosas ".
Avanzando hacia el futuro Lee y sus colegas quisieran explorar cómo funcionará este método en tipos de datos más allá del habla humana y las imágenes ópticas. como los datos del sensor del entorno físico y la comunicación inalámbrica.