Crear un futuro brillante para todos requiere más humanidad en lugar de menos. Especialmente en el caso de los robots.
Términos como "IA" y "aprendizaje automático" se están convirtiendo lentamente en parte de nuestro mundo cotidiano. Desde documentos de investigación hasta su fuente de noticias, es probable que haya visto estos términos aparecer con más frecuencia en los últimos años.
Si bien estas ideas se están generalizando, comienzan a plantear antiguas preguntas filosóficas que todavía tenemos que responder. Preguntas como "¿Qué significa ser humano?" o "¿Cómo cuantificamos el daño?"
Para algunas aplicaciones de IA, responder a estas viejas preguntas es fundamental. En los casos en los que existan riesgos, como autos sin conductor, tener una respuesta puede ser una cuestión de vida o muerte.
Ética de los robots
Estas preguntas no se ignoran a medida que continúa el impulso hacia la automatización. Investigadores de todo el mundo han estado buscando cómo responder a estas preguntas.
Una de esas investigadoras es Anna Sawyer, quien está escribiendo su doctorado. sobre ética de los robots en la Universidad de Australia Occidental.
Anna dice que se trata de cómo las máquinas toman decisiones con resultados serios y los marcos que deberíamos tener para guiar esas decisiones.
El trabajo de Anna la ha visto asesorar al equipo detrás Soy madre , una película de ciencia ficción hecha en Australia que explora algunos de estos temas.
Humanos vs robots
Una parte clave de la ética de los robots es la diferencia entre la toma de decisiones de humanos y robots.
En el caso de intentar evitar un accidente, los humanos toman decisiones reactivas con tiempo e información limitados. Pero los robots pueden hacer cálculos decisiones proactivas, potencialmente con más información.
Pero aquí está el problema:tenemos que decidir cómo los robots toman esas decisiones. Y nos está obligando a tomar decisiones muy incómodas en el proceso.
Como decidir entre un auto con dos niños y un padre chocando contra un autobús escolar lleno de niños o chocando contra una pared para evitar el autobús.
O decidir salvar a un pasajero más joven a expensas de una persona mayor que tiene menos vida para vivir.
También genera una discusión sobre la reducción del daño. ¿Cuándo la reducción llega demasiado lejos? O un ejemplo que da Anna:¿querríamos evitar un golpe en el dedo del pie a costa de una obra de arte de valor incalculable?
Este dilema está en el centro de la discusión sobre la ética de los robots.
¿Big data al rescate?
Podría pensar que la solución radica en más datos, pero puede complicar aún más las cosas.
Piense en los datos personales que Google o Apple podrían tener sobre usted de su teléfono y el uso de las redes sociales. Ahora considere que se están metiendo en el negocio de los automóviles sin conductor.
Anna dice que estos datos tienen el potencial de usarse para tomar decisiones en situaciones de vida o muerte, como un accidente automovilístico.
Volviendo a la elección entre sacrificar a una persona mayor oa una más joven, ¿Qué pasaría si la persona mayor tuviera un Premio Nobel de la Paz? ¿Y la persona más joven tenía antecedentes penales violentos?
"¿Eso cambia, y debería cambiar, la forma en que actúa el vehículo?" Pregunta Anna. "Si lo hace, ¿cómo lo programamos entonces? "
El futuro
Aún no tenemos las respuestas Entonces, ¿cómo le enseñamos a un robot a responderlas?
Como muchas cuestiones éticas, todo se reduce a un antiguo dicho.
"El hecho de que podamos hacerlo no significa que debamos hacerlo, "Anna dice.
"Pero si lo vamos a hacer, debemos asegurarnos [de] que tantas personas como sea posible participen en esa conversación ".
A menudo olvidamos que el futuro, por definición, siempre está por escribir. Pero si la tecnología continúa en esta dirección, puede que no tengamos mucho tiempo para resolverlo.
Este artículo apareció por primera vez en Particle, un sitio web de noticias científicas con sede en Scitech, Perth, Australia. Lea el artículo original.