Investigadores de la Universidad Carnegie Mellon han demostrado que las personas que juegan con un robot sufren en el rendimiento cuando el robot las critica. Crédito:Universidad Carnegie Mellon
Hablar basura tiene una larga y colorida historia de poner nerviosos a los oponentes del juego, y ahora los investigadores de la Universidad Carnegie Mellon han demostrado que las palabras desalentadoras pueden ser perturbadoras incluso cuando las pronuncia un robot.
La charla basura en el estudio fue decididamente suave, con expresiones como "Tengo que decir que eres un jugador terrible, "y" A lo largo del juego, tu juego se ha vuelto confuso ". Aun así, las personas que jugaban con el robot (un robot humanoide disponible comercialmente conocido como Pepper) se desempeñaban peor cuando el robot los desanimaba y mejor cuando el robot los alentaba.
El autor principal, Aaron M. Roth, dijo que algunos de los 40 participantes del estudio eran técnicamente sofisticados y entendían completamente que una máquina era la fuente de su malestar.
"Un participante dijo:'No me gusta lo que dice el robot, pero esa es la forma en que fue programado, así que no puedo culparlo, '"dijo Roth, quien realizó el estudio mientras era estudiante de maestría en el CMU Robotics Institute.
Pero los investigadores encontraron que, en general, el rendimiento humano decayó independientemente de la sofisticación técnica.
El estudio, presentado el mes pasado en la IEEE International Conference on Robot &Human Interactive Communication (RO-MAN) en Nueva Delhi, India, es una desviación de los estudios típicos de interacción humano-robot, que tienden a centrarse en cómo los humanos y los robots pueden trabajar mejor juntos.
"Este es uno de los primeros estudios de la interacción humano-robot en un entorno en el que no cooperan, "dijo el coautor Fei Fang, profesor asistente en el Instituto de Investigación de Software. Tiene enormes implicaciones para un mundo donde se espera que la cantidad de robots y dispositivos de Internet de las cosas (IoT) con capacidades de inteligencia artificial crezca exponencialmente. "Podemos esperar que los asistentes a domicilio cooperen, " ella dijo, "pero en situaciones como las compras en línea, es posible que no tengan los mismos objetivos que nosotros ".
El estudio fue una consecuencia de un proyecto de un estudiante en Métodos de IA para el bien social, un curso que imparte Fang. Los estudiantes querían explorar los usos de la teoría de juegos y la racionalidad limitada en el contexto de los robots, por eso diseñaron un estudio en el que los humanos competirían contra un robot en un juego llamado "Guardias y tesoros". Un llamado juego de Stackelberg, los investigadores lo utilizan para estudiar la racionalidad. Este es un juego típico que se utiliza para estudiar la interacción defensor-atacante en la investigación de juegos de seguridad. un área en la que Fang ha realizado un extenso trabajo.
Cada participante jugó el juego 35 veces con el robot, mientras se sumergen en palabras de aliento del robot o se les chamuscan los oídos con comentarios despectivos. Aunque la racionalidad de los jugadores humanos mejoró a medida que aumentaba el número de juegos jugados, los que fueron criticados por el robot no puntuaron tan bien como los que fueron elogiados.
Está bien establecido que el desempeño de un individuo se ve afectado por lo que otras personas dicen, pero el estudio muestra que los humanos también responden a lo que dicen las máquinas, dijo Afsaneh Doryab, un científico de sistemas en el Instituto de Interacción Humano-Computadora (HCII) de CMU durante el estudio y ahora es profesor asistente en Sistemas de Ingeniería y Medio Ambiente en la Universidad de Virginia. La capacidad de esta máquina para generar respuestas podría tener implicaciones para el aprendizaje automatizado, tratamiento de salud mental e incluso el uso de robots como compañeros, ella dijo.
El trabajo futuro podría centrarse en la expresión no verbal entre robots y humanos, dijo Roth, ahora un Ph.D. estudiante de la Universidad de Maryland. Fang sugiere que se necesita aprender más sobre cómo los diferentes tipos de máquinas, digamos, un robot humanoide en comparación con una caja de computadora, podría invocar diferentes respuestas en los humanos.