Etalumis realiza inferencia bayesiana, un método de inferencia estadística en el que el teorema de Bayes se utiliza para actualizar la probabilidad de una hipótesis a medida que se dispone de más evidencia o información, esencialmente invirtiendo el simulador para predecir los parámetros de entrada a partir de las observaciones. Esta imagen proporciona una descripción general del marco de software. Crédito:Wahid Bhimji, Laboratorio Nacional Lawrence Berkeley
Los científicos han construido simulaciones para ayudar a explicar el comportamiento en el mundo real, incluido el modelado para la transmisión y prevención de enfermedades, vehículos autónomos, ciencia del clima, y en la búsqueda de los secretos fundamentales del universo. Pero cómo interpretar grandes volúmenes de datos experimentales en términos de estas simulaciones detalladas sigue siendo un desafío clave. La programación probabilística ofrece una solución, esencialmente la ingeniería inversa de la simulación, pero esta técnica ha estado limitada durante mucho tiempo debido a la necesidad de reescribir la simulación en lenguajes de computadora personalizados. además de la intensa potencia informática requerida.
Para abordar este desafío, una colaboración multinacional de investigadores que utilizan recursos informáticos del Centro Nacional de Computación Científica de Investigación Energética (NERSC) del Laboratorio Nacional Lawrence Berkeley ha desarrollado el primer marco de programación probabilística capaz de controlar simuladores existentes y ejecutarse a gran escala en plataformas HPC. El sistema, llamado Etalumis ("simular" escrito al revés), fue desarrollado por un grupo de científicos de la Universidad de Oxford, Universidad de Columbia Británica (UBC), Intel, Universidad de Nueva York, CERN, y NERSC como parte de un proyecto de Big Data Center.
Etalumis realiza inferencia bayesiana, un método de inferencia estadística en el que el teorema de Bayes se utiliza para actualizar la probabilidad de una hipótesis a medida que se dispone de más evidencia o información, esencialmente invirtiendo el simulador para predecir los parámetros de entrada a partir de las observaciones. El equipo desplegó Etalumis por primera vez para el Gran Colisionador de Hadrones (LHC) en el CERN, aportando un nuevo nivel de interpretabilidad al análisis de datos de los detectores de física de alta energía del LHC. Un artículo basado en Etalumis ha sido seleccionado como finalista al Mejor artículo en SC19. Los autores hablarán sobre Etalumis en SC19 el martes, 19 de noviembre a las 4:30 p.m.
De días a minutos
La inferencia bayesiana se utiliza en prácticamente todas las disciplinas científicas, según Frank Wood, un colaborador de Etalumis, Profesor Asociado de Ciencias de la Computación en UBC, y uno de los pioneros de la programación probabilística.
"Estaba particularmente interesado en aplicar la inferencia bayesiana a un problema de física extremadamente complejo, y los detectores de física de alta energía se sintieron como el campo de pruebas perfecto para la investigación fundamental de nuestro grupo, ", dice." El proyecto Etalumis brindó una oportunidad única para combinar una red neuronal de vanguardia basada en un enfoque de 'compilación de inferencias' con un marco de software (pyprob) para acoplar directamente este motor de inferencia a simuladores de física de partículas detallados existentes y ejecutarlo en recursos a escala HPC ".
Una comparación de algunas de las predicciones del enfoque de compilación de inferencias del proyecto Etalumis (histogramas de esquema), que pueden alcanzar los mismos niveles de precisión que los métodos computacionalmente intratables (histogramas rellenos). Crédito:Laboratorio Nacional Lawrence Berkeley
Los científicos ya tienen paquetes de software de simulación robustos que modelan la física y todo lo que ocurre dentro del detector. Etalumis incorpora programación probabilística para combinar con este software existente, esencialmente dando a los investigadores la capacidad de decir "Tuvimos esta observación; ¿cómo llegamos allí?"
"Este proyecto es emocionante porque hace que los simuladores existentes en muchos campos de la ciencia y la ingeniería estén sujetos al aprendizaje automático probabilístico, "dice Atilim Gunes Baydin, desarrollador principal del proyecto Etalumis y autor principal del artículo SC19. Gunes es actualmente investigador postdoctoral en aprendizaje automático en la Universidad de Oxford. "Esto significa que el simulador ya no se usa como una caja negra para generar datos de entrenamiento sintéticos, pero como un modelo generativo probabilístico interpretable que el código del simulador ya especifica, en el que podemos realizar inferencias.
"Necesitamos poder controlar el programa para eliminar todas las posibilidades, así que en este proyecto agregamos esta capacidad como una capa de software, "añade Wahid Bhimji, Arquitecto de Big Data en el equipo de Servicios de Datos y Análisis de NERSC. Sin embargo, realizar inferencias en entornos tan complejos conlleva desafíos computacionales. "Los métodos convencionales para este tipo de inferencia bayesiana son extremadamente costosos desde el punto de vista computacional, "Agrega Bhimji." Etalumis nos permite hacer en minutos lo que normalmente tomaría días, utilizando los recursos de NERSC HPC ".
Interpretabilidad profunda
Para el caso de uso del LHC, el equipo entrenó una red neuronal para realizar inferencias, aprender a hacer buenas propuestas sobre qué cadena detallada de procesos físicos del simulador podría haber ocurrido. Esto requirió mejoras en el marco de aprendizaje profundo de PyTorch para entrenar una red neuronal dinámica compleja en más de 1, 000 nodos (32, 000 núcleos de CPU) de la supercomputadora Cori en NERSC. Como resultado, La capacitación que tomaría meses con el software original no optimizado en un solo nodo ahora se puede completar en menos de 10 minutos en Cori. Así, los científicos obtuvieron la oportunidad de estudiar las opciones que se tomaron para producir cada resultado, dándoles una mayor comprensión de los datos.
"En muchos casos, se sabe que existe una incertidumbre al determinar la física que ocurrió en una colisión del LHC, pero no se conocen las probabilidades de todos los procesos que podrían haber dado lugar a una observación en particular; con Etalumis, obtienes un modelo de eso, "Bhimji explica.
La profunda interpretabilidad que aporta Etalumis al análisis de datos del LHC podría respaldar importantes avances en el mundo de la física. "Los signos de la nueva física pueden estar escondidos en los datos del LHC; revelar esas señales puede requerir un cambio de paradigma del procesamiento algorítmico clásico de los datos a un enfoque probabilístico más matizado, "dice Kyle Cranmer, un físico de la NYU que formó parte del proyecto Etalumis. "Este enfoque nos lleva al límite de lo que se puede conocer de forma mecánica cuántica".