• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • Por qué necesitamos más que solo datos para crear autos sin conductor éticos

    ¿Cómo podemos hacer que los autos sin conductor sean éticos? Crédito:de www.shutterstock.com

    ¿Qué queremos que hagan los autos sin conductor en choques fatales inevitables?

    Hoy, los investigadores publicaron un artículo El experimento de la máquina moral para abordar esta pregunta.

    Para crear datos para el estudio, Casi 40 millones de personas de 233 países utilizaron un sitio web para registrar decisiones sobre a quién salvar y a quién dejar morir en escenarios hipotéticos de automóviles sin conductor. Es una versión del clásico "dilema del carrito", en el que hay que dar preferencia a las personas para priorizar en caso de emergencia.

    Algunos de los hallazgos clave son intuitivos:los participantes prefieren salvar a las personas antes que a los animales, los jóvenes sobre los viejos, y más en lugar de menos. Otras preferencias son más preocupantes:mujeres sobre hombres, ejecutivos sobre las personas sin hogar, el ajuste sobre los obesos.

    El experimento no tiene precedentes tanto en alcance como en sofisticación:ahora tenemos una idea mucho mejor de cómo las preferencias de las personas en tales dilemas varían en todo el mundo. Los autores, sesudamente, tenga cuidado de no tomar los resultados como una simple guía de lo que deben hacer los vehículos autónomos.

    Pero este es solo el primer paso en lo que debe ser un debate vigoroso. Y en ese debate, encuestas como estas (por interesantes que sean) sólo pueden desempeñar un papel limitado.

    ¿Qué tan bueno es nuestro primer juicio?

    Las máquinas son mucho más rápidas que nosotros; no entran en pánico. En su mejor momento, podrían encarnar nuestra sabiduría considerada y aplicarla de manera eficiente incluso en circunstancias angustiosas. Para hacer eso, sin embargo, tenemos que empezar con buenos datos.

    Los clics en los cuestionarios en línea son una excelente manera de averiguar lo que piensan las personas antes de emitir su juicio. Sin embargo, es obvio que no nos complacemos con todos los prejuicios. Los autores omitieron la raza y la nacionalidad como motivos de elección, y con razón.

    Un buen diseño de encuestas no se puede hacer en el vacío. Y se supone que las preferencias morales no son solo gustos. Para encontrar lo que es moralmente correcto (piense en cualquier decisión moralmente importante que haya enfrentado), tienes que pensar seriamente.

    Queremos basar la inteligencia artificial ética en nuestros mejores juicios, no necesariamente nuestros primeros.

    El mundo es 'arriesgado'

    El estudio utilizó dilemas que involucraban dos resultados determinados:o definitivamente golpeas el cochecito o definitivamente matas al perro.

    Pero las decisiones reales implican una gran incertidumbre:es posible que no esté seguro de si la persona que está delante es un niño o un adulto pequeño, si golpearlos los mataría o lesionaría, si un viraje de alta velocidad podría funcionar.

    Las computadoras pueden hacer mejores predicciones, pero el mundo es intrínsecamente "azaroso". Este es un gran problema. Las preferencias de uno u otro en ciertos casos solo llegan hasta cierto punto al decirnos qué hacer en los riesgosos.

    Supongamos que un vehículo autónomo debe elegir entre dejarse estrellar y matar a su pasajero anciano, o en su lugar, virar hacia un lado y matar a un bebé.

    El experimento de la máquina moral predice que las personas están del lado del bebé. Pero no dice cuánto preferiríamos prescindir de uno sobre el otro. Tal vez sea casi un lanzamiento y nos inclinamos por salvar al niño. O quizás salvar al niño es mucho más importante que salvar al pensionista.

    Las opiniones sobre esto serán extremadamente diversas, y esta encuesta no nos ofrece ninguna orientación. Pero no podemos saber pesar decir, una probabilidad del 10% de matar al niño contra un 50% de probabilidad de matar al pensionista, a menos que sepamos cuánto más importante es salvar a uno que al otro.

    Dado que, literalmente, todas las decisiones que tomen los vehículos autónomos se harán en condiciones de incertidumbre, esta es una brecha significativa.

    Lo que las encuestas no nos pueden decir

    La motivación del experimento de la máquina moral es comprensible. La responsabilidad de codificar la próxima generación de inteligencia artificial ética es abrumadora.

    El desacuerdo moral parece estar muy extendido. Una encuesta parece una buena forma de triangular opiniones en un mundo acalorado.

    Pero la forma en que manejamos el desacuerdo moral no es solo un problema científico. También es moral. Y, desde los tiempos de los antiguos griegos, la solución a ese problema moral no es agregar preferencias, pero participación democrática.

    Sin duda la democracia está en crisis, al menos en algunas partes del mundo rico. Pero sigue siendo nuestra herramienta más importante para tomar decisiones en presencia de un desacuerdo inevitable.

    La toma de decisiones democrática no puede reducirse a marcar casillas. Implica tomarse su voto en serio, no solo hacer clic en un cuadro en un sitio web. Implica participación, debate, y justificación mutua.

    Encuestas como esta no pueden decirnos por qué las personas prefieren las opciones que prefieren. El hecho de que la decisión de un automóvil autónomo se correlacione con las opiniones de los demás no lo hace, por sí mismo, justifique esa elección (imagine a un conductor humano justificando sus acciones en un accidente de la misma manera).

    La justificación mutua es el corazón de la ciudadanía democrática. Y presupone comprometerse no solo con nuestras elecciones, pero por qué los hacemos.

    Decidir juntos

    Estudios como este son intrínsecamente interesantes, y los autores de este son admirablemente explícitos sobre lo que es, y lo que no está diseñado para mostrar.

    Para construir sobre estos cimientos, necesitamos hacer mucha más reflexión sobre cómo sopesar nuestros compromisos morales bajo la incertidumbre.

    Y debemos hacerlo como parte de un proceso democrático inclusivo en el que no solo agreguemos las preferencias de las personas, pero toma en serio la tarea de decidir, juntos, nuestro futuro de inteligencia artificial.

    Este artículo se ha vuelto a publicar de The Conversation con una licencia de Creative Commons. Lea el artículo original.




    © Ciencia https://es.scienceaq.com