• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • ¿Confiamos en los agentes de inteligencia artificial para mediar en los conflictos? No completamente

    Crédito:CC0 Public Domain

    Podemos escuchar hechos de Siri o Alexa, o direcciones de Google Maps o Waze, pero, ¿dejaríamos que un agente virtual habilitado por inteligencia artificial ayudara a mediar en los conflictos entre los miembros del equipo? Un nuevo estudio dice que todavía no.

    Investigadores de la USC y la Universidad de Denver crearon una simulación en la que un equipo de tres personas fue apoyado por un avatar de agente virtual en la pantalla en una misión que fue diseñada para asegurar fallas y provocar conflictos. El estudio se diseñó para considerar a los agentes virtuales como mediadores potenciales para mejorar la colaboración en equipo durante la mediación de conflictos.

    ¿Confesarles? Si. Pero en el calor del momento ¿escucharemos a los agentes virtuales?

    Mientras que algunos de los investigadores (Gale Lucas y Jonathan Gratch de la Escuela de Ingeniería de la USC Viterbi y el Instituto de Tecnologías Creativas de la USC que contribuyeron a este estudio), había descubierto anteriormente que las interacciones humanas uno a uno con un terapeuta agente virtual producían más confesiones, en este estudio "Mediación de conflictos en equipos humano-máquina:uso de un agente virtual para respaldar la planificación y el informe de la misión, "Los miembros del equipo tenían menos probabilidades de interactuar con un agente virtual masculino llamado" Chris "cuando surgía el conflicto.

    Los miembros del equipo que participaron no se acercaron físicamente al dispositivo (ya que hemos visto a humanos atacar a robots en publicaciones virales en las redes sociales), sino que estaban menos comprometidos y eran menos propensos a escuchar la entrada del agente virtual una vez que se produjo la falla y surgió el conflicto entre los miembros del equipo.

    El estudio se llevó a cabo en un entorno de academia militar en el que se diseñaron 27 escenarios para probar cómo reaccionaría el equipo que incluía un agente virtual ante la falla y el conflicto asegurador. El agente virtual no fue ignorado de ninguna manera. El estudio encontró que los equipos respondieron socialmente al agente virtual durante la planificación de la misión que se les asignó (asintiendo con la cabeza, sonriendo y reconociendo la entrada del agente virtual dándole las gracias) pero cuanto más avanzaba el ejercicio, su compromiso con el agente virtual disminuyó. Los participantes no culparon por completo al agente virtual por su fracaso.

    "La cohesión del equipo cuando se realizan juntos tareas complejas es un factor muy complejo e importante, "dice el autor principal, Kerstin Haring, profesor asistente de ciencias de la computación en la Universidad de Denver.

    "Nuestros resultados muestran que los agentes virtuales y potencialmente los robots sociales pueden ser un buen mediador de conflictos en todo tipo de equipos. Será muy interesante conocer las intervenciones y las respuestas sociales para finalmente integrar sin problemas a los agentes virtuales en los equipos humanos para que se desempeñen mejor. . "

    Coautor del estudio, Gale Lucas, Profesor Asistente de Investigación de Ciencias de la Computación en la USC, e investigador del Instituto de Tecnologías Creativas, agrega que algunos comentarios de los participantes del estudio indican que percibían que los agentes virtuales eran neutrales e imparciales. Le gustaría continuar el trabajo para ver si los agentes virtuales se pueden aplicar "para ayudarnos a tomar mejores decisiones" y presionar "lo que se necesita para que confiemos en los agentes virtuales".

    Si bien este estudio se realizó en una academia militar con estructuras particulares, Los investigadores esperan desarrollar este proyecto para mejorar los procesos de equipo en todo tipo de entornos de trabajo.


    © Ciencia https://es.scienceaq.com