• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  •  Science >> Ciencia >  >> Naturaleza
    La optimización del flujo de datos sobre terremotos permite la investigación científica sobre The Big One
    Crédito:Wilson Malone de Pexels

    Nadie puede predecir con precisión cuándo ocurrirá un terremoto. Desde el terremoto de magnitud 6,7 de Northridge en 1994 en el condado de Los Ángeles, que causó 72 muertes, 9.000 heridos y 25.000 millones de dólares en daños, el sur de California ha estado esperando ansiosamente "El Grande":un devastador terremoto que, según se prevé, tendrá al menos una magnitud de 7,8 y 44 veces más fuerte. Los sismólogos sólo pueden decir que esto puede ocurrir dentro de los próximos 30 años.



    Aunque los científicos no pueden predecir cuándo y dónde se producirán los terremotos, la preparación es clave para mejorar la resiliencia de la sociedad ante los grandes terremotos. En particular, el Centro Estatal de Terremotos de California (SCEC) con sede en la USC desarrolló CyberShake, una plataforma computacional que simula cientos de miles de terremotos para calcular modelos regionales de peligro sísmico.

    Sus resultados, que revelan las áreas geográficas del sur de California con mayor riesgo de sufrir temblores intensos, han influido en los códigos de construcción de Los Ángeles y en el diseño de los modelos de terremotos del Servicio Geológico de EE. UU., la agencia de mapeo de ciencias geológicas y terrestres más grande del país.

    Los estudios de CyberShake (y gran parte de la ciencia moderna, sin embargo) requieren un gran uso de datos y computación. Con cálculos de varios pasos que alimentan numerosas tareas computacionales interconectadas que se ejecutan en supercomputadoras locales y nacionales para simular 600.000 terremotos diferentes, el flujo de trabajo científico de CyberShake es complejo. El Instituto de Ciencias de la Información (ISI) de la USC Viterbi alberga las herramientas para generar y gestionar datos tan masivos.

    Ewa Deelman, profesora de investigación en informática y directora de investigación de ISI, ha diseñado y actualizado continuamente, desde el año 2000, un sistema automatizado de gestión de flujo de trabajo llamado Pegasus.

    Flujos de trabajo optimizados

    Pegasus, llamado así por Planning for Execution and Grids (PEG) y el amor de Deelman por los caballos, convierte los experimentos de investigación en flujos de trabajo optimizados. Puede ser utilizado por científicos en diversos campos, desde sismología hasta física y bioinformática, debido a su diseño abstracto.

    Deelman lo compara con una receta de cocina:"Puedes usar la misma receta en diferentes cocinas. Diferentes usuarios pueden ejecutar la receta (el flujo de trabajo), pero con sus propios utensilios de cocina (recursos computacionales). Cuando diseñas las cosas de una manera lo suficientemente amplia, llegar a ser ampliamente aplicable."

    En 2016, los científicos del Observatorio de Ondas Gravitacionales con Interferómetro Láser (LIGO) utilizaron Pegasus para capturar ondas gravitacionales en el universo, confirmando la Teoría General de la Relatividad de Albert Einstein y ganando el Premio Nobel de Física de 2017. Durante los 16 años de colaboración entre los científicos informáticos de ISI y los miembros de LIGO, el software gestionó miles de flujos de trabajo con millones de tareas.

    La Detección Colaborativa y Adaptativa de la Atmósfera (CASA), un centro de investigación de ingeniería dedicado a mejorar la predicción y respuesta a condiciones climáticas peligrosas, también ha trasladado sus oleoductos a Pegasus. Como el clima severo puede ralentizar y comprometer los recursos locales y la capacidad informática, el programa envía los datos de CASA a infraestructuras en la nube para garantizar un flujo de trabajo continuo.

    Inspirado en el comportamiento animal

    CyberShake ha confiado en Pegasus durante los últimos 15 años, incluido su estudio más reciente con el mayor conjunto de simulaciones de terremotos hasta el momento. Pegasus gestionó 2,5 petabytes de datos y ejecutó 28.120 trabajos de flujo de trabajo durante 108 días para producir mapas de peligro sísmico en 772.000 horas-nodo.

    "Sin Pegasus, no habría manera de que pudiéramos hacer este tipo de ciencia", dijo Scott Callaghan, científico informático de SCEC y desarrollador principal de CyberShake. SCEC expandirá CyberShake al norte de California, utilizando ahora la supercomputadora más rápida del mundo, Frontier. Pegaso seguirá a su lado.

    "Cada vez que realizamos uno de estos estudios, siempre nos encontramos con desafíos inesperados. Pero estoy seguro de que, ante cualquier problema en el flujo de trabajo, el equipo de Pegasus podrá ayudarnos a resolverlo para que podamos seguir obteniendo ciencia de vanguardia. hecho", afirmó Callaghan.

    Deelman ahora está investigando y conceptualizando SWARM, otro sistema de gestión de flujo de trabajo inspirado en la hábil coordinación de comportamientos grupales entre animales sociales, como las hormigas. También planea mejorar la toma de decisiones de Pegasus con inteligencia artificial, reinventando cómo operarán los sistemas de flujo de trabajo en el futuro.

    Proporcionado por la Universidad del Sur de California




    © Ciencia https://es.scienceaq.com