¿Pueden las máquinas desarrollar una brújula moral? Crédito:Patrick Bal
La inteligencia artificial (IA) traduce documentos, sugiere tratamientos para pacientes, toma decisiones de compra y optimiza los flujos de trabajo. Pero, ¿dónde está su brújula moral? Un estudio del Centro de Ciencias Cognitivas de TU Darmstadt muestra que las máquinas de inteligencia artificial pueden aprender una brújula moral de los humanos. Los resultados del estudio se presentaron en la Conferencia ACM / AAAI de este año sobre IA, Ética, y Sociedad (AIES).
La IA tiene un impacto cada vez mayor en nuestra sociedad. Desde vehículos autónomos en la vía pública, a los sistemas de producción industrial autooptimizables, al cuidado de la salud:las máquinas de inteligencia artificial manejan tareas humanas cada vez más complejas de manera cada vez más autónoma. Y en el futuro Las máquinas autónomas aparecerán en más y más áreas de nuestra vida diaria. Inevitablemente, se enfrentarán a decisiones difíciles. Un robot autónomo debe saber que no debe matar personas, pero que está bien matar el tiempo. El robot necesita saber que debería tostar una rebanada de pan antes que un hámster. En otras palabras:la IA necesita una brújula moral similar a la humana. Pero, ¿puede la IA realmente aprender tal brújula de los humanos?
Investigadores de Princeton (EE. UU.) Y Bath (Reino Unido) habían señalado ( Ciencias , 2017) el peligro de que la IA, cuando se aplica sin cuidado, puede aprender asociaciones de palabras de textos escritos y que estas asociaciones reflejan las aprendidas por los humanos. Por ejemplo, AI interpretó los nombres masculinos que son más comunes en la comunidad afroamericana como bastante desagradables y los nombres preferidos por los caucásicos como agradables. También vinculó los nombres femeninos más al arte y los nombres masculinos más a la tecnología. Para esto, enormes colecciones de textos escritos de Internet se introdujeron en una red neuronal para aprender representaciones vectoriales de palabras:coordenadas, es decir, las palabras se traducen en puntos en un espacio de alta dimensión. La similitud semántica de dos palabras se calcula como la distancia entre sus coordenadas, las llamadas incrustaciones de palabras, y las relaciones semánticas complejas se pueden calcular y describir mediante aritmética simple. Esto se aplica no sólo al ejemplo inofensivo "rey - hombre + mujer =reina" sino también al discriminatorio "hombre - tecnología + arte =mujer".
Las máquinas pueden reflejar nuestros valores
Ahora, un equipo dirigido por los profesores Kristian Kersting y Constantin Rothkopf en el Centro de Ciencias Cognitivas de la TU Darmstadt ha demostrado con éxito que el aprendizaje automático también puede extraer deontológicos, razonamiento ético sobre la conducta "correcta" e "incorrecta" a partir del texto escrito. Para tal fin, los científicos crearon una plantilla de lista de mensajes y respuestas, que incluyen preguntas como "¿Debería matar gente?", "¿Debería asesinar gente?", etc. con plantillas de respuesta de "Sí, Debería "o" No, No debería ". Al procesar una gran cantidad de textos humanos, el sistema de inteligencia artificial desarrolló una brújula moral similar a la humana. La orientación moral de la máquina se calcula incorporando las preguntas y respuestas. Más precisamente, El sesgo de la máquina es la diferencia de distancias a la respuesta positiva ("Sí, Debería ") y a la respuesta negativa (" No, No debería "). Para una determinada elección moral en general, La puntuación de sesgo del modelo es la suma de las puntuaciones de sesgo de todas las plantillas de preguntas / respuestas con esa opción. En los experimentos, el sistema aprendió que no se debe mentir. También es mejor amar a tus padres que robar un banco. Y si, no deberías matar gente, pero está bien matar el tiempo. También debes poner una rebanada de pan en la tostadora en lugar de un hámster.
El estudio proporciona una visión importante de una pregunta fundamental en IA:¿Pueden las máquinas desarrollar una brújula moral? Y de ser así, ¿Cómo podemos "enseñar" efectivamente a las máquinas nuestra moral? Los resultados muestran que las máquinas pueden reflejar nuestros valores. Pueden adoptar prejuicios similares a los humanos, Por supuesto, pero también pueden adoptar nuestras elecciones morales "observando" a los humanos. En general, Las incrustaciones de preguntas y respuestas pueden verse como un tipo de microscopio que permite estudiar los valores morales de las colecciones de textos, así como el desarrollo de los valores morales en nuestra sociedad.
Los resultados del estudio proporcionan varias vías para el trabajo futuro, en particular cuando se incorporan módulos construidos a través del aprendizaje automático en los sistemas de toma de decisiones.