Los modelos climáticos son algunas de las piezas de software más complejas jamás escritas, capaces de simular una gran cantidad de partes diferentes del sistema general, como la atmósfera o el océano. Muchos han sido desarrollados por cientos de científicos durante décadas y constantemente se agregan y perfeccionan. Pueden ejecutar más de un millón de líneas de código informático, decenas de miles de páginas impresas.
No es de extrañar que estos modelos sean caros. Las simulaciones llevan tiempo, a menudo varios meses, y los superordenadores en los que se ejecutan los modelos consumen mucha energía. Pero un nuevo algoritmo que he desarrollado promete hacer que muchas de estas simulaciones de modelos climáticos sean diez veces más rápidas y, en última instancia, podría ser una herramienta importante en la lucha contra el cambio climático.
Una de las razones por las que el modelado climático lleva tanto tiempo es que algunos de los procesos que se simulan son intrínsecamente lentos. El océano es un buen ejemplo. Se necesitan unos cuantos miles de años para que el agua circule desde la superficie hasta las profundidades del océano y viceversa (por el contrario, la atmósfera tiene un "tiempo de mezcla" de semanas).
Desde que se desarrollaron los primeros modelos climáticos en la década de 1970, los científicos se dieron cuenta de que esto iba a ser un problema. Para utilizar un modelo para simular el cambio climático, se debe partir de condiciones representativas de antes de que la industrialización condujera a la liberación de gases de efecto invernadero a la atmósfera.
Para producir un equilibrio tan estable, los científicos "aceleran" su modelo esencialmente dejándolo funcionar hasta que deje de cambiar (el sistema es tan complejo que, como en el mundo real, siempre estarán presentes algunas fluctuaciones).
Una condición inicial con una "deriva" mínima es esencial para simular con precisión los efectos de los factores provocados por el hombre en el clima. Pero gracias al océano y a otros componentes lentos, esto puede llevar varios meses incluso en grandes supercomputadoras. No es de extrañar que los científicos del clima hayan llamado a este cuello de botella uno de los "grandes desafíos" de su campo.
Quizás se pregunte:"¿por qué no utilizar una máquina aún más grande?" Desafortunadamente, no ayudaría. De manera simplista, las supercomputadoras son simplemente miles de chips de computadora individuales, cada uno con docenas de unidades de procesamiento (CPU o "núcleos") conectados entre sí a través de una red de alta velocidad.
Una de las máquinas que uso tiene más de 300.000 núcleos y puede realizar casi 20 mil billones de operaciones aritméticas por segundo. (Obviamente, es compartido por cientos de usuarios y cualquier simulación solo utilizará una pequeña fracción de la máquina).
Un modelo climático aprovecha esto subdividiendo la superficie del planeta en regiones más pequeñas (subdominios), y los cálculos para cada región se realizan simultáneamente en una CPU diferente. En principio, cuantos más subdominios tenga, menos tiempo le llevará realizar los cálculos.
Eso es cierto hasta cierto punto. El problema es que los diferentes subdominios necesitan "saber" lo que sucede en los contiguos, lo que requiere transmitir información entre chips. Esto es mucho más lento que la velocidad con la que los chips modernos pueden realizar cálculos aritméticos, lo que los informáticos llaman "limitación de ancho de banda". (Cualquiera que haya intentado transmitir un vídeo a través de una conexión a Internet lenta sabrá lo que eso significa).
Por lo tanto, hay rendimientos decrecientes al dedicar más potencia informática al problema. Los modelos oceánicos sufren especialmente de una "escala" tan pobre.
Aquí es donde nace el nuevo algoritmo informático que he desarrollado y publicado en Science Advances. Entra. Promete reducir drásticamente el tiempo de rotación del océano y otros componentes de los modelos del sistema terrestre. En pruebas con modelos climáticos típicos, el algoritmo fue en promedio unas diez veces más rápido que los enfoques actuales, reduciendo el tiempo de muchos meses a una semana.
El tiempo y la energía que esto podría ahorrar a los científicos del clima son valiosos en sí mismos. Pero poder poner en marcha modelos rápidamente también significa que los científicos pueden calibrarlos con respecto a lo que sabemos que realmente sucedió en el mundo real, mejorando su precisión o para definir mejor la incertidumbre en sus proyecciones climáticas. Las spin-ups consumen tanto tiempo que actualmente ninguna de ellas es factible.
El nuevo algoritmo también nos permitirá realizar simulaciones con más detalle espacial. Actualmente, los modelos oceánicos normalmente no nos dicen nada sobre características menores a 1º de ancho en longitud y latitud (aproximadamente 110 km en el ecuador). Pero muchos fenómenos críticos en el océano ocurren a escalas mucho más pequeñas (de decenas de metros a unos pocos kilómetros) y una mayor resolución espacial ciertamente conducirá a proyecciones climáticas más precisas, por ejemplo, del aumento del nivel del mar, las marejadas ciclónicas y la intensidad de los huracanes.
Como tantas investigaciones "nuevas", se basa en una idea antigua, en este caso una que se remonta a siglos atrás, al matemático suizo Leonhard Euler. Lo que se denomina "aceleración de secuencia", se puede considerar como el uso de información del pasado para extrapolarla a un futuro "mejor".
Entre otras aplicaciones, es ampliamente utilizado por químicos y científicos de materiales para calcular la estructura de átomos y moléculas, un problema que ocupa más de la mitad de los recursos de supercomputación del mundo.
La aceleración de secuencia es útil cuando un problema es de naturaleza iterativa, exactamente lo que es el giro del modelo climático:se retroalimenta la salida del modelo como entrada al modelo. Enjuague y repita hasta que la salida sea igual a la entrada y haya encontrado su solución de equilibrio.
En la década de 1960, el matemático de Harvard D.G. A Anderson se le ocurrió una manera inteligente de combinar múltiples resultados anteriores en una sola entrada para llegar a la solución final con muchas menos repeticiones del procedimiento. Aproximadamente diez veces menos que los que encontré cuando apliqué su esquema al problema del spin-up.
Desarrollar un nuevo algoritmo es la parte fácil. Conseguir que otros lo utilicen suele ser el mayor desafío. Por lo tanto, es prometedor que la Oficina Meteorológica del Reino Unido y otros centros de modelización climática lo estén probando.
El próximo informe importante del IPCC está previsto para 2029. Parece un largo camino por recorrer, pero dado el tiempo que lleva desarrollar modelos y realizar simulaciones, los preparativos ya están en marcha. Coordinadas por una colaboración internacional conocida como Proyecto de Intercomparación de Modelos Acoplados, son estas simulaciones las que formarán la base del informe. Es emocionante pensar que mi algoritmo y mi software podrían contribuir.
Más información: Samar Khatiwala, Giro eficiente de modelos del sistema terrestre mediante aceleración de secuencia, Avances científicos (2024). DOI:10.1126/sciadv.adn2839
Información de la revista: Avances científicos
Proporcionado por The Conversation
Este artículo se vuelve a publicar desde The Conversation bajo una licencia Creative Commons. Lea el artículo original.