Los investigadores llevaron a cabo una serie de experimentos en los que se pidió a pilotos humanos que miraran vídeos de sistemas de inteligencia artificial volando un avión. Luego se pidió a los pilotos que adivinaran qué estaba haciendo el sistema de inteligencia artificial y por qué. Los resultados mostraron que los pilotos a menudo no podían adivinar correctamente las intenciones del sistema de IA.
Los investigadores creen que esto se debe a que los sistemas de inteligencia artificial toman decisiones de una manera muy diferente a la de los humanos. Los humanos tienden a tomar decisiones basadas en su propia experiencia y conocimiento, mientras que los sistemas de inteligencia artificial toman decisiones basadas en datos y algoritmos. Esta diferencia en los procesos de toma de decisiones puede dificultar que los humanos comprendan qué están haciendo los sistemas de IA.
Los investigadores afirman que sus hallazgos tienen implicaciones para el futuro de la aviación. A medida que los sistemas de IA se vuelvan más avanzados, es probable que desempeñen un papel más importante en el vuelo de aviones. Sin embargo, es importante garantizar que los humanos sean capaces de comprender las decisiones tomadas por los sistemas de IA para evitar accidentes.
Los hallazgos del estudio sugieren que pueden ser necesarios nuevos métodos de capacitación para los pilotos que trabajarán con sistemas de inteligencia artificial. Estos métodos de formación deberían ayudar a los pilotos a comprender cómo los sistemas de IA toman decisiones y cómo interpretar la información que proporcionan.
Además, los investigadores dicen que es importante desarrollar nuevas formas para que los sistemas de IA se comuniquen con los humanos. Esto ayudará a garantizar que los humanos puedan comprender las decisiones tomadas por los sistemas de inteligencia artificial y tomar decisiones informadas sobre cómo interactuar con ellos.