Una imagen de la distribución de la materia en el universo generada por una ejecución de simulación de Mira que modela 1,1 billones de partículas. Crédito:Hal Finkel, Nicolás Frontiere, Salman Habib, Katrin Heitmann, Mark Hereld, Joseph Insley, Kalyan Kumaran, Vitali Morozov, Michael E. Papka, Tom Peterka, Adrian Pope, y Tim Williams, Laboratorio Nacional Argonne; Zarija Lukic, Laboratorio Nacional Lawrence Berkeley; David Daniel y Patricia Fasel, Laboratorio Nacional Los Alamos
Una simulación cosmológica extremadamente grande, entre las cinco más extensas jamás realizadas, se ejecutará en Mira este otoño y ejemplifica el alcance de los problemas abordados en la supercomputadora de clase de liderazgo en el Laboratorio Nacional Argonne del Departamento de Energía de EE. UU. (DOE).
La física de Argonne y científica computacional Katrin Heitmann lidera el proyecto. Heitmann fue uno de los primeros en aprovechar las capacidades de Mira cuando, en 2013, el sistema IBM Blue Gene / Q se puso en línea en Argonne Leadership Computing Facility (ALCF), una instalación para usuarios de la Oficina de Ciencias del DOE. Entre las simulaciones cosmológicas más grandes jamás realizadas en ese momento, la simulación del borde exterior que ella y sus colegas llevaron a cabo permitió realizar más investigaciones científicas durante muchos años.
Por el nuevo esfuerzo, A Heitmann se le han asignado aproximadamente 800 millones de horas centrales para realizar una simulación que refleja los avances de observación de vanguardia de los satélites y telescopios y formará la base de los mapas del cielo utilizados por numerosos estudios. Evolucionando una gran cantidad de partículas, la simulación está diseñada para ayudar a resolver los misterios de la energía oscura y la materia oscura.
"Al transformar esta simulación en un cielo sintético que imita de cerca los datos de observación en diferentes longitudes de onda, este trabajo puede permitir una gran cantidad de proyectos científicos en toda la comunidad de investigación, ", Dijo Heitmann." Pero nos presenta un gran desafío ". para generar cielos sintéticos en diferentes longitudes de onda, el equipo debe extraer información relevante y realizar análisis sobre la marcha o después del hecho en el posprocesamiento. El posprocesamiento requiere el almacenamiento de grandes cantidades de datos, tanto, De hecho, que la mera lectura de los datos se vuelve extremadamente costosa desde el punto de vista computacional.
Desde que se lanzó Mira, Heitmann y su equipo han implementado en su Código de Cosmología Acelerada Híbrida / Hardware (HACC) herramientas de análisis más sofisticadas para el procesamiento sobre la marcha. "Es más, en comparación con la simulación del borde exterior, hemos realizado tres mejoras importantes, ", dijo." Primero, Nuestro modelo cosmológico se ha actualizado para que podamos ejecutar una simulación con las mejores entradas de observación posibles. Segundo, ya que nuestro objetivo es una ejecución completa de la máquina, aumentará el volumen, conduciendo a mejores estadísticas. Más importante, configuramos varias rutinas de análisis nuevas que nos permitirán generar cielos sintéticos para una amplia gama de encuestas, a su vez, nos permite estudiar una amplia gama de problemas científicos ".
La simulación del equipo abordará numerosas preguntas fundamentales en cosmología y es esencial para permitir el refinamiento de las herramientas predictivas existentes y ayudar al desarrollo de nuevos modelos. impactando tanto los estudios cosmológicos en curso como los próximos, incluido el Instrumento espectroscópico de energía oscura (DESI), el Large Synoptic Survey Telescope (LSST), SPHEREx, y el experimento de fondo de microondas cósmico terrestre "Etapa 4" (CMB-S4). El valor de la simulación se deriva de su tremendo volumen (que es necesario para cubrir porciones sustanciales de áreas de estudio) y de alcanzar niveles de resolución de masa y fuerza suficientes para capturar las pequeñas estructuras que albergan galaxias débiles.
El volumen y la resolución plantean requisitos computacionales elevados, y porque no se cumplen fácilmente, se llevan a cabo pocas simulaciones cosmológicas a gran escala. Contribuyendo a la dificultad de su ejecución está el hecho de que las huellas de memoria de las supercomputadoras no han avanzado proporcionalmente con la velocidad de procesamiento en los años transcurridos desde la introducción de Mira. Esto hace que ese sistema, a pesar de su relativa edad, bastante óptimo para una campaña a gran escala cuando se aprovecha en su totalidad.
"Un cálculo de esta escala es solo un vistazo de lo que los recursos a exaescala en desarrollo ahora serán capaces de hacer en 2021/22, "dijo Katherine Riley, Director de Ciencias de ALCF. "La comunidad de investigadores se beneficiará de este trabajo durante mucho tiempo".