• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • El problema del tranvía autónomo:¿Cómo tomarán los futuros sistemas de inteligencia artificial las decisiones más éticas para todos nosotros?

    Crédito:Shutterstock

    La inteligencia artificial (IA) ya está tomando decisiones en los campos de los negocios, la atención médica y la fabricación. Pero los algoritmos de IA generalmente aún reciben ayuda de las personas que aplican controles y toman la decisión final.

    ¿Qué pasaría si los sistemas de IA tuvieran que tomar decisiones independientes y que pudieran significar la vida o la muerte para los humanos?

    La cultura pop ha retratado durante mucho tiempo nuestra desconfianza general hacia la IA. En la película de ciencia ficción de 2004 "I, Robot", el detective Del Spooner (interpretado por Will Smith) sospecha de los robots después de que uno lo rescatara de un accidente automovilístico, mientras que una niña de 12 años se ahogaba. Dice:"Yo era la elección lógica. Se calculó que tenía un 45 % de posibilidades de sobrevivir. Sarah solo tenía un 11 % de posibilidades. Ese era el bebé de alguien:el 11 % es más que suficiente. Un ser humano lo habría sabido ."

    A diferencia de los humanos, los robots carecen de conciencia moral y siguen la "ética" programada en ellos. Al mismo tiempo, la moralidad humana es muy variable. Lo "correcto" que se debe hacer en cualquier situación dependerá de a quién le preguntes.

    Para que las máquinas nos ayuden a desarrollar todo su potencial, debemos asegurarnos de que se comporten de manera ética. Entonces, la pregunta es:¿cómo influye la ética de los desarrolladores e ingenieros de IA en las decisiones que toma la IA?

    El futuro de la conducción autónoma

    Imagine un futuro con autos autónomos que sean totalmente autónomos. Si todo funciona según lo previsto, el viaje de la mañana será una oportunidad para prepararse para las reuniones del día, ponerse al día con las noticias o sentarse y relajarse.

    Pero, ¿y si las cosas van mal? El automóvil se acerca a un semáforo, pero de repente fallan los frenos y la computadora tiene que tomar una decisión en una fracción de segundo. Puede desviarse hacia un poste cercano y matar al pasajero, o seguir adelante y matar al peatón que está adelante.

    La computadora que controla el automóvil solo tendrá acceso a información limitada recopilada a través de los sensores del automóvil y tendrá que tomar una decisión basada en esto. Por dramático que parezca, estamos a solo unos años de enfrentarnos potencialmente a tales dilemas.

    Los automóviles autónomos generalmente brindarán una conducción más segura, pero los accidentes serán inevitables, especialmente en el futuro previsible, cuando estos automóviles compartirán las carreteras con conductores humanos y otros usuarios de la vía.

    Tesla aún no produce automóviles completamente autónomos, aunque planea hacerlo. En situaciones de colisión, los automóviles Tesla no activan ni desactivan automáticamente el sistema de frenado automático de emergencia (AEB) si un conductor humano está al mando.

    En otras palabras, las acciones del conductor no se interrumpen, incluso si ellos mismos están causando la colisión. En cambio, si el automóvil detecta una posible colisión, envía alertas al conductor para que tome medidas.

    Sin embargo, en el modo de "piloto automático", el automóvil debería frenar automáticamente para los peatones. Algunos argumentan que si el automóvil puede evitar una colisión, entonces tiene la obligación moral de anular las acciones del conductor en todos los escenarios. Pero, ¿querríamos un coche autónomo para tomar esta decisión?

    ¿Cuánto vale una vida?

    ¿Qué pasaría si la computadora de un automóvil pudiera evaluar el "valor" relativo del pasajero en su automóvil y del peatón? Si su decisión considerara este valor, técnicamente solo estaría haciendo un análisis de costo-beneficio.

    Esto puede sonar alarmante, pero ya se están desarrollando tecnologías que podrían permitir que esto suceda. Por ejemplo, el recientemente renombrado Meta (anteriormente Facebook) tiene un reconocimiento facial muy evolucionado que puede identificar fácilmente a las personas en una escena.

    Si estos datos se incorporaran al sistema de inteligencia artificial de un vehículo autónomo, el algoritmo podría asignar un valor en dólares a cada vida. Esta posibilidad se describe en un extenso estudio de 2018 realizado por expertos del Instituto de Tecnología de Massachusetts y colegas.

    A través del experimento Moral Machine, los investigadores plantearon varios escenarios de automóviles autónomos que obligaron a los participantes a decidir si matar a un peatón sin hogar o a un peatón ejecutivo.

    Los resultados revelaron que las elecciones de los participantes dependían del nivel de desigualdad económica en su país, donde una mayor desigualdad económica significaba que era más probable que sacrificaran al hombre sin hogar.

    Si bien no ha evolucionado tanto, dicha agregación de datos ya está en uso con el sistema de crédito social de China, que decide qué derechos sociales tiene la gente.

    La industria del cuidado de la salud es otra área en la que veremos a la IA tomar decisiones que podrían salvar o dañar a los humanos. Los expertos están desarrollando cada vez más IA para detectar anomalías en las imágenes médicas y ayudar a los médicos a priorizar la atención médica.

    Por ahora, los médicos tienen la última palabra, pero a medida que estas tecnologías se vuelven cada vez más avanzadas, ¿qué sucederá cuando un médico y un algoritmo de IA no hagan el mismo diagnóstico?

    Otro ejemplo es un sistema automatizado de recordatorio de medicamentos. ¿Cómo debe reaccionar el sistema si un paciente se niega a tomar su medicación? ¿Y cómo afecta eso la autonomía del paciente y la responsabilidad general del sistema?

    Los drones y el armamento impulsados ​​por IA también son éticamente preocupantes, ya que pueden tomar la decisión de matar. Hay puntos de vista contradictorios sobre si tales tecnologías deben prohibirse o regularse por completo. Por ejemplo, el uso de drones autónomos puede limitarse a la vigilancia.

    Algunos han pedido que los robots militares se programen con ética. Pero esto plantea cuestiones sobre la responsabilidad del programador en el caso de que un dron mate a civiles por error.

    Dilemas filosóficos

    Ha habido muchos debates filosóficos sobre las decisiones éticas que tendrá que tomar la IA. El ejemplo clásico de esto es el problema del tranvía.

    Las personas a menudo tienen dificultades para tomar decisiones que podrían tener un resultado que les cambie la vida. Al evaluar cómo reaccionamos ante tales situaciones, un estudio informó que las opciones pueden variar según una variedad de factores que incluyen la edad, el género y la cultura del encuestado.

    Cuando se trata de sistemas de IA, los procesos de entrenamiento de algoritmos son fundamentales para saber cómo funcionarán en el mundo real. Un sistema desarrollado en un país puede verse influenciado por las opiniones, la política, la ética y la moral de ese país, lo que lo hace inadecuado para su uso en otro lugar y momento.

    Si el sistema estuviera controlando una aeronave o guiando un misil, desearía un alto nivel de confianza de que fue entrenado con datos representativos del entorno en el que se está utilizando.

    Los ejemplos de fallas y sesgos en la implementación de la tecnología han incluido el dispensador de jabón racista y el etiquetado automático de imágenes inapropiado.

    La IA no es "buena" o "mala". Los efectos que tenga sobre las personas dependerán de la ética de sus desarrolladores. Entonces, para aprovecharlo al máximo, necesitaremos llegar a un consenso sobre lo que consideramos "ético".

    Si bien las empresas privadas, las organizaciones públicas y las instituciones de investigación tienen sus propias pautas para la IA ética, las Naciones Unidas han recomendado desarrollar lo que denominan "un instrumento de establecimiento de estándares global integral" para proporcionar un marco de IA ética global y garantizar la protección de los derechos humanos.

    © Ciencia https://es.scienceaq.com