• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  •  science >> Ciencia >  >> Naturaleza
    ¿Quién toma la decisión final? Gestión de desastres impulsada por IA

    Crédito:Ray Oranges

    La protección de los ciudadanos frente a un desastre a menudo requiere la adopción de decisiones de gran alcance. Cualquier ayuda es bienvenida, incluida la de AI.

    Los incendios forestales están cada vez más fuera de control, como lo muestran los acontecimientos recientes en California y Australia. Sin embargo, los bomberos continúan luchando incansablemente contra las llamas, y hoy en día tienen más a su disposición que solo agua y quemaduras controladas. La digitalización ha sido durante mucho tiempo parte de su arsenal en forma de sistemas de geoinformación, cámaras web y drones. Estos se han convertido en herramientas clave para predecir y controlar incendios forestales, sin embargo, las enormes cantidades de datos que producen empujan rápidamente la experiencia humana al límite. "La IA siempre es útil cuando se trata de una gran cantidad de datos, "dice Benjamin Scharte, quien dirige el Equipo de Investigación de Riesgos y Resiliencia en el Centro ETH de Estudios de Seguridad (CSS). Recientemente, él y su colega Kevin Kohler se unieron para analizar el uso de la IA en la protección civil.

    "Poder utilizar algoritmos para hacer predicciones es muy emocionante, ", dice Kohler. ¿En qué dirección se dirige el frente de fuego? ¿Dónde deberíamos establecer las próximas quemaduras controladas? Al procesar todos los datos disponibles, Las herramientas de modelado basadas en IA pueden ayudar a responder estas preguntas. Estos datos pueden incluir previsiones meteorológicas, duración de la sequía, dirección del viento, e incluso la cantidad potencial de combustible disponible para el fuego. Las predicciones resultantes pueden hacer que la respuesta a desastres sea más eficiente. En el mejor de los casos, incluso pueden actuar como una forma de prevención.

    La protección civil es particularmente sensible al uso de IA porque, todo demasiado a menudo, es una cuestión de vida o muerte, y cada minuto cuenta. A menudo se espera que los expertos tomen decisiones rápidas con consecuencias de gran alcance, por lo que están agradecidos por cualquier ayuda que pueda respaldar esas decisiones con datos más sólidos. Por último, sin embargo, la calidad de una decisión siempre depende de la calidad de los datos. "Por muy inteligente que sea mi algoritmo, será de poca utilidad en una emergencia si no puedo proporcionarle los datos correctos para el desastre, "Advierte Kohler.

    Incluso los datos de la más alta calidad nunca pueden reemplazar por completo la experiencia adquirida por los expertos durante muchos años, por tanto, la cuestión de si un ser humano o una máquina debería tomar la decisión final es muy compleja. Tomado como un conjunto, el algoritmo posiblemente podría producir una pérdida económica menor o menos víctimas que su contraparte humana, pero también puede tomar decisiones en casos individuales que consideremos inaceptables. "Para mí está claro que nosotros, como una sociedad, seguirá luchando con la idea de dejar las decisiones en manos de máquinas autónomas, "Dice Scharte.

    Cuestión de confianza

    Entonces, ¿en qué momento podríamos estar dispuestos a permitir que una máquina tome sus propias decisiones? Scharte y Kohler coinciden en que esto depende del contexto:"La protección civil a veces es una cuestión de vida o muerte. Los seres humanos deberían participar en la toma de decisiones, no es el lugar para que las máquinas tomen decisiones completamente autónomas".

    Un factor crucial es cuánta fe tiene la gente en el algoritmo. La confianza allana el camino para la aceptación y ambos se mejoran cuando podemos seguir claramente lo que está haciendo un algoritmo. Por ejemplo, cuando los médicos comprenden la lógica de decisión de un algoritmo, es más probable que confíen en él y lo incorporen a su trabajo. Numerosos estudios han confirmado esto, pero Scharte hace una nota de precaución:"La transparencia y la explicabilidad no siempre aumentan la seguridad". Incluso hay casos en los que la transparencia puede ser una desventaja, incluidos los peligros provocados por el hombre, como el ciberdelito y el terrorismo. "Si revela exactamente cómo un algoritmo detecta patrones de comportamiento sospechosos, entonces los actores adversarios tienen más probabilidades de burlarlo deliberadamente, "advierte Scharte.


    © Ciencia https://es.scienceaq.com