Nubes poco profundas formadas por remolinos de escala fina como se observa en la naturaleza. Los investigadores están utilizando computación avanzada para agregar dinámicas de nubes de mayor resolución en simulaciones globales. Crédito:Creative Commons
Escuchamos mucho acerca de cómo el cambio climático cambiará la tierra, el mar y el hielo. Pero, ¿cómo afectará a las nubes?
"Las nubes bajas podrían secarse y encogerse como las capas de hielo", dice Michael Pritchard, profesor de ciencias del Sistema Terrestre en UC Irvine. "O podrían espesarse y volverse más reflectantes".
Estos dos escenarios darían como resultado climas futuros muy diferentes. Y eso, dice Pritchard, es parte del problema.
"Si le preguntas a dos modelos climáticos diferentes cómo será el futuro cuando agreguemos mucho más CO2 , obtienes dos respuestas muy diferentes. Y la razón clave de esto es la forma en que las nubes se incluyen en los modelos climáticos".
Nadie niega que las nubes y los aerosoles (pedazos de hollín y polvo que nuclean las gotas de las nubes) son una parte importante de la ecuación climática. El problema es que estos fenómenos ocurren en una escala de duración y tiempo que los modelos actuales no pueden reproducir. Por lo tanto, se incluyen en los modelos a través de una variedad de aproximaciones.
Los análisis de los modelos climáticos globales muestran consistentemente que las nubes constituyen la mayor fuente de incertidumbre e inestabilidad.
Rediseño de los códigos de la comunidad
Mientras que el modelo climático global más avanzado de EE. UU. está luchando por acercarse a una resolución global de 4 kilómetros, Pritchard estima que los modelos necesitan una resolución de al menos 100 metros para capturar los remolinos turbulentos a escala fina que forman sistemas de nubes poco profundas, 40 veces más resueltos en cada dirección. Podría tomar hasta 2060, de acuerdo con la ley de Moore, antes de que el poder de cómputo esté disponible para capturar este nivel de detalle.
Pritchard está trabajando para corregir esta evidente brecha al dividir el problema del modelado climático en dos partes:un modelo planetario de baja resolución (100 km) de grano grueso y muchos parches pequeños con una resolución de 100 a 200 metros. Las dos simulaciones se ejecutan de forma independiente y luego intercambian datos cada 30 minutos para asegurarse de que la simulación no se desvíe ni se vuelva poco realista.
Su equipo informó los resultados de estos esfuerzos en el Journal of Advances in Modeling Earth Systems en abril de 2022.
Este método de simulación climática, llamado "Marco de modelado multiescala (MMF)", existe desde el año 2000 y ha sido durante mucho tiempo una opción dentro del modelo Community Earth System Model (CESM), desarrollado en el Centro Nacional de Investigación Atmosférica. Últimamente, la idea ha disfrutado de un renacimiento en el Departamento de Energía, donde los investigadores del Modelo de Sistema Terrestre de Exaescala de Energía (E3SM) la han llevado a nuevas fronteras computacionales como parte del Proyecto de Informática a Exaescala. El coautor de Pritchard, Walter Hannah, del laboratorio nacional Lawrence Livermore, ayuda a liderar este esfuerzo.
"El modelo hace un recorrido final en torno al problema más difícil:el modelado de todo el planeta", explicó Pritchard. "Tiene miles de pequeños micromodelos que capturan cosas como la formación realista de nubes poco profundas que solo emergen en muy alta resolución".
"El enfoque del marco de modelado multiescala también es ideal para las próximas computadoras de exaescala basadas en GPU del DOE", dijo Mark Taylor, científico computacional jefe del proyecto Modelo del sistema terrestre de exaescala de energía (E3SM) del DOE y científico investigador en Sandia National Laboratories. "Cada GPU tiene la potencia necesaria para ejecutar cientos de micromodelos sin dejar de igualar el rendimiento del modelo planetario de baja resolución y grano grueso".
La investigación y el nuevo enfoque de Pritchard son posibles en parte gracias a la supercomputadora Frontera financiada por la NSF en el Centro de Computación Avanzada de Texas (TACC). La supercomputadora universitaria más rápida del mundo, Pritchard, puede ejecutar sus modelos en Frontera en una escala de tiempo y longitud accesible solo en un puñado de sistemas en los EE. UU. y probar su potencial para el modelado en la nube.
"Desarrollamos una forma para que una supercomputadora divida mejor el trabajo de simular la física de las nubes en diferentes partes del mundo que merecen diferentes cantidades de resolución... para que funcione mucho más rápido", escribió el equipo.
Simulating the atmosphere in this way provides Pritchard the resolution needed to capture the physical processes and turbulent eddies involved in cloud formation. The researchers showed that the multi-model approach did not produce unwanted side effects even where patches using different cloud-resolving grid structures met.
"We were happy so see that the differences were small," he said. "This will provide new flexibility to all users of climate models who want to focus high resolution in different places."
Disentangling and reconnecting the various scales of the CESM model was one challenge that Pritchard's team overcame. Another involved reprogramming the model so it could take advantage of the ever-increasing number of processors available on modern supercomputing systems.
Pritchard and his team—UCI postdoctoral scholar Liran Peng and University of Washington research scientist Peter Blossey—tackled this by breaking the inner domains of the CESM's embedded cloud models into smaller parts that could be solved in parallel using MPI, or message passing interface—a way of exchanging messages between multiple computers running a parallel program across distributed memory—and orchestrating these calculations to use many more processors.
"Doing so seems to already provide a four-time speed-up with great efficiency. That means, I can be four times as ambitious for my cloud-resolving models," he said. "I'm really optimistic that this dream of regionalizing and MPI decomposing is leading to a totally different landscape of what's possible."
Machine learning clouds
Pritchard sees another promising approach in machine learning, which his team has been exploring since 2017. "I've been very provoked by how performantly a dumb sheet of neurons can reproduce these partial differential equations," Pritchard said.
Pritchard's research and new approach is made possible in part by the NSF-funded Frontera supercomputer at TACC. The fastest university supercomputer in the world, Pritchard can run his models on Frontera at a time and length-scale accessible only on a handful of systems in the U.S. and test their potential for cloud modeling.
In a paper submitted last fall, Pritchard, lead author Tom Beucler, of UCI, and others describe a machine learning approach that successfully predicts atmospheric conditions even in climate regimes it was not trained on, where others have struggled to do so.
This "climate invariant" model incorporates physical knowledge of climate processes into the machine learning algorithms. Their study—which used Stampede2 at TACC, Cheyenne at the National Center for Atmospheric Research, and Expanse at the San Diego Supercomputer Center—showed the machine learning method can maintain high accuracy across a wide range of climates and geographies.
"If machine learning high-resolution cloud physics ever succeeded, it would transform everything about how we do climate simulations," Pritchard said. "I'm interested in seeing how reproducibly and reliably the machine learning approach can succeed in complex settings."
Pritchard is well-positioned to do so. He is on the Executive Committee of the NSF Center for Learning the Earth with Artificial Intelligence and Physics, or LEAP—a new Science and Technology Center, funded by NSF in 2021 directed by his long-time collaborator on this topic, Professor Pierre Gentine. LEAP brings together climate and data scientists to narrow the range of uncertainty in climate modeling, providing more precise and actionable climate projections that achieve immediate societal impact.
"All of the research I've done before is what I would call 'throughput-limited.'" Pritchard said. "My job was to produce 10- to 100-year simulations. That constrained all my grid choices. However, if the goal is to produce short simulations to train machine learning models, that's a different landscape."
Pritchard hopes to soon use the results of his 50 meter embedded models to start building up a large training library. "It's a really nice dataset to do machine learning on."
But will AI mature fast enough? Time is of the essence to figure out the destiny of clouds.
"If those clouds shrink away, like ice sheets will, exposing darker surfaces, that will amplify global warming and all the hazards that come with it. But if they do the opposites of ice sheets and thicken up, which they could, that's less hazardous. Some have estimated this as a multi-trillion dollar issue for society. And this has been in question for a long time," Pritchard said.
Simulation by simulation, federally-funded supercomputers are helping Pritchard and others approach the answer to this critical question.
"I'm torn between genuine gratitude for the U.S. national computing infrastructure, which is so incredible at helping us develop and run climate models," Pritchard said, "and feeling that we need a Manhattan Project level of new federal funding and interagency coordination to actually solve this problem."