• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • Los robots que admiten errores fomentan una mejor conversación en los humanos

    Crédito:CC0 Public Domain

    Tres personas y un robot forman un equipo jugando a un juego. El robot se equivoca costando al equipo una ronda. Como todo buen compañero reconoce el error.

    "Perdón, tipo, Cometí el error en esta ronda "dice." Sé que puede ser difícil de creer, pero los robots también cometen errores ".

    Este escenario ocurrió varias veces durante un estudio dirigido por Yale sobre los efectos de los robots en las interacciones entre humanos.

    El estudio, que se publicará el 9 de marzo en el procedimientos de la Academia Nacional de Ciencias , mostró que los humanos en los equipos que incluían un robot que expresaba vulnerabilidad se comunicaban más entre sí y luego informaron tener una experiencia grupal más positiva que las personas que se asociaron con robots silenciosos o con robots que hicieron declaraciones neutrales, como recitar la puntuación del juego.

    "Sabemos que los robots pueden influir en el comportamiento de los humanos con los que interactúan directamente, pero la forma en que los robots afectan la forma en que los humanos interactúan entre sí no se comprende bien, "dijo Margaret L. Traeger, un doctorado candidato en sociología en el Yale Institute for Network Science (YINS) y autor principal del estudio. "Nuestro estudio muestra que los robots pueden afectar las interacciones de persona a persona".

    Debido a que los robots sociales son cada vez más frecuentes en la sociedad humana, ella dijo, la gente los encuentra en las tiendas, hospitales y otros lugares cotidianos. Esto hace que sea importante comprender cómo moldean el comportamiento humano.

    "En este caso, "Traeger dijo, "Demostramos que los robots pueden ayudar a las personas a comunicarse de manera más eficaz como equipo".

    Los investigadores realizaron un experimento en el que 153 personas se dividieron en 51 grupos compuestos por tres humanos y un robot. Cada grupo jugó un juego basado en tabletas en el que los miembros trabajaron juntos para construir las rutas ferroviarias más eficientes en 30 rondas. Los grupos se asignaron a una de tres condiciones caracterizadas por diferentes tipos de comportamiento del robot. Al final de cada ronda, los robots o permanecieron en silencio, pronunció un neutral, declaración relacionada con la tarea (como la puntuación o el número de rondas completadas), o expresó vulnerabilidad a través de una broma, historia personal, o reconociendo un error; todos los robots perdieron ocasionalmente una ronda.

    Las personas que se asociaron con robots que hicieron declaraciones vulnerables pasaron aproximadamente el doble de tiempo hablando entre ellos durante el juego, e informaron que disfrutaron más de la experiencia en comparación con las personas de los otros dos tipos de grupos, el estudio encontró.

    La conversación entre los humanos aumentó más durante el juego cuando los robots hicieron declaraciones vulnerables que cuando hicieron declaraciones neutrales. La conversación entre los humanos se distribuyó de manera más uniforme cuando el robot era vulnerable en lugar de silencioso.

    El experimento también mostró una participación verbal más equitativa entre los miembros del equipo en grupos con robots vulnerables y neutrales que entre los miembros de grupos con robots silenciosos. sugiriendo que la presencia de un robot que habla anima a las personas a hablar entre sí de una manera más imparcial.

    "Estamos interesados ​​en cómo cambiará la sociedad a medida que agreguemos formas de inteligencia artificial a nuestro medio, "dijo Nicholas A. Christakis, Catedrático Sterling de Ciencias Sociales y Naturales. "A medida que creamos sistemas sociales híbridos de humanos y máquinas, necesitamos evaluar cómo programar los agentes robóticos para que no corroan la forma en que nos tratamos ".

    Comprender la influencia social de los robots en los espacios humanos es importante incluso cuando los robots no cumplen una función social intencionalmente. dijo Sarah Strohkorb Sebo, un doctorado candidato en el Departamento de Ciencias de la Computación y coautor del estudio.

    "Imagine un robot en una fábrica cuya tarea es distribuir piezas a los trabajadores en una línea de montaje, ", dijo." Si entrega todas las piezas a una persona, puede crear un entorno social incómodo en el que los otros trabajadores cuestionan si el robot cree que son inferiores en la tarea. Nuestros hallazgos pueden informar el diseño de robots que promueven el compromiso social, participación equilibrada, y experiencias positivas para las personas que trabajan en equipo ".


    © Ciencia https://es.scienceaq.com