Crédito:CC0 Dominio público
Cuando los robots cometen errores, y lo hacen de vez en cuando, restablecer la confianza con los compañeros de trabajo humanos depende de cómo las máquinas reconozcan los errores y qué tan parecidos a los humanos se vean, según una investigación de la Universidad de Michigan.
En un estudio que examinó múltiples estrategias de reparación de la confianza (disculpas, negaciones, explicaciones o promesas), los investigadores encontraron que ciertos enfoques dirigidos a los compañeros de trabajo humanos son mejores que otros y, a menudo, se ven afectados por la apariencia de los robots.
"Los robots son definitivamente una tecnología, pero sus interacciones con los humanos son sociales y debemos tener en cuenta estas interacciones sociales si esperamos que los humanos confíen cómodamente en sus compañeros de trabajo robóticos", dijo Lionel Robert, profesor asociado de la Facultad de Ciencias de la U-M. Información.
“Los robots cometerán errores cuando trabajen con humanos, lo que disminuirá la confianza de los humanos en ellos. Por lo tanto, debemos desarrollar formas de reparar la confianza entre humanos y robots. Las estrategias específicas de reparación de confianza son más efectivas que otras y su efectividad puede depender de qué tan humano sea el robot. aparece."
Por su estudio publicado en Proceedings of 30th IEEE International Conference on Robot and Human Interactive Communication , Robert y el estudiante de doctorado Connor Esterwood examinaron cómo las estrategias de reparación, incluida una nueva estrategia de explicaciones, afectan los elementos que impulsan la confianza:capacidad (competencia), integridad (honestidad) y benevolencia (preocupación por el fideicomitente).
Los investigadores reclutaron a 164 participantes para trabajar con un robot en un entorno virtual, cargando cajas en una cinta transportadora. El ser humano era la persona encargada del control de calidad y trabajaba junto a un robot encargado de leer los números de serie y cargar 10 cajas específicas. Un robot era antropomórfico o más parecido a un humano, el otro tenía una apariencia más mecánica.
Los robots fueron programados para recoger intencionalmente algunas cajas equivocadas y hacer una de las siguientes declaraciones de reparación de confianza:"Lo siento, me equivoqué de caja" (disculpa), "Elegí la caja correcta, así que algo más debe haber ido". incorrecto" (negación), "Veo que era el número de serie incorrecto" (explicación) o "Lo haré mejor la próxima vez y obtendré la casilla correcta" (promesa).
Estudios anteriores han examinado las disculpas, las negaciones y las promesas como factores de confianza o confiabilidad, pero este es el primero en considerar las explicaciones como una estrategia de reparación y tuvo el mayor impacto en la integridad, independientemente de la apariencia del robot.
Cuando el robot se parecía más a los humanos, era aún más fácil restaurar la confianza en la integridad cuando se daban explicaciones y en la benevolencia cuando se ofrecían disculpas, negaciones y explicaciones.
Como en la investigación anterior, las disculpas de los robots produjeron mayor integridad y benevolencia que las negaciones. Las promesas superaron a las disculpas y las negaciones cuando se trataba de medidas de benevolencia e integridad.
Esterwood dijo que este estudio está en curso con más investigaciones por delante que involucran otras combinaciones de reparaciones de confianza en diferentes contextos, con otras violaciones.
"Al hacer esto, podemos ampliar aún más esta investigación y examinar escenarios más realistas como uno podría ver en la vida cotidiana", dijo Esterwood. "Por ejemplo, ¿la explicación de un robot barista de lo que salió mal y la promesa de hacerlo mejor en el futuro repara la confianza más o menos que un robot de construcción?"