• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • Una nueva investigación sugiere que los robots parecen más persuasivos cuando fingen ser humanos

    Talal Rahwan, profesor asociado de Ciencias de la Computación en NYU Abu Dhabi. Crédito:NYU Abu Dhabi

    Los recientes avances tecnológicos en inteligencia artificial han hecho posible que las máquinas, o bots, pasar por humanos. Un equipo de investigadores dirigido por Talal Rahwan, profesor asociado de Ciencias de la Computación en NYU Abu Dhabi, realizó un experimento para estudiar cómo las personas interactúan con bots que creen que son humanos, y cómo se ven afectadas dichas interacciones una vez que los bots revelan su identidad. Los investigadores encontraron que los bots son más eficientes que los humanos en ciertas interacciones entre humanos y máquinas, pero solo si se les permite ocultar su naturaleza no humana.

    En su artículo titulado "Evidencia de comportamiento para una compensación entre transparencia y eficiencia en la cooperación hombre-máquina", publicado en Inteligencia de la máquina de la naturaleza , los investigadores presentaron su experimento en el que se pidió a los participantes que jugaran un juego de cooperación con un asociado humano o un asociado de bot. Este juego, llamado el dilema del prisionero iterado, fue diseñado para capturar situaciones en las que cada una de las partes que interactúan puede actuar egoístamente en un intento de explotar a la otra, o actuar de manera cooperativa en un intento de lograr un resultado mutuamente beneficioso.

    Crucialmente, los investigadores dieron a algunos participantes información incorrecta sobre la identidad de su asociado. A algunos participantes que interactuaron con un humano se les dijo que estaban interactuando con un bot, y viceversa. A través de este experimento, los investigadores pudieron determinar si las personas tienen prejuicios contra los interlocutores sociales que creen que son bots, y evaluar el grado en que dicho prejuicio, si existiera, afecta la eficiencia de los bots que son transparentes sobre su naturaleza no humana.

    Los resultados mostraron que los bots que se hacían pasar por humanos eran más eficientes para persuadir al compañero para que cooperara en el juego. Sin embargo, tan pronto como se reveló su verdadera naturaleza, las tasas de cooperación cayeron y la superioridad de los bots fue negada.

    "Aunque existe un amplio consenso de que las máquinas deben ser transparentes sobre cómo toman decisiones, es menos claro si deben ser transparentes sobre quiénes son, "dijo Rahwan.

    "Considerar, por ejemplo, Google Duplex, un asistente de voz automatizado capaz de generar un discurso similar al humano para realizar llamadas telefónicas y reservar citas en nombre de su usuario. El discurso de Google Duplex es tan realista que es posible que la persona al otro lado del teléfono ni siquiera se dé cuenta de que está hablando con un bot. ¿Es ético desarrollar un sistema así? ¿Deberíamos prohibir que los bots se hagan pasar por humanos? y obligarlos a ser transparentes sobre quiénes son? Si la respuesta es sí', luego, nuestros hallazgos resaltan la necesidad de establecer estándares para el costo de eficiencia que estamos dispuestos a pagar a cambio de tal transparencia ".


    © Ciencia https://es.scienceaq.com