• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • Máquinas empáticas favorecidas por los escépticos pero que pueden asustar a los creyentes

    Crédito:CC0 Public Domain

    La mayoría de la gente apreciaría un chatbot que ofrezca respuestas comprensivas o empáticas, según un equipo de investigadores, pero agregaron que la reacción puede depender de cuán cómoda se sienta la persona con la idea de una máquina de sentimientos.

    En un estudio, los investigadores informaron que las personas preferían recibir respuestas comprensivas y empáticas de un chatbot (una máquina programada para simular una conversación) que recibir una respuesta de una máquina sin emociones, dijo S. Shyam Sundar, James P. Jimirro Catedrático de Efectos de Medios y codirector del Laboratorio de Investigación de Efectos de Medios. Las personas expresan simpatía cuando sienten compasión por una persona, mientras que expresan empatía cuando en realidad sienten las mismas emociones que la otra persona, dijo Sundar.

    A medida que los proveedores de atención médica buscan formas de reducir costos y mejorar el servicio, Agregó que estos hallazgos podrían ayudar a los desarrolladores a crear tecnologías conversacionales que alienten a las personas a compartir información sobre sus estados de salud física y mental, por ejemplo.

    "Cada vez más, a medida que tenemos más y más chatbots y más agentes conversacionales impulsados ​​por IA entre nosotros, "dijo Sundar." Y, a medida que más personas comienzan a recurrir a su altavoz inteligente o chatbot en un foro de salud en busca de consejos, o para apoyo social y emocional, la pregunta es:¿Hasta qué punto estos chatbots y oradores inteligentes deberían expresar emociones similares a las de los humanos? "

    Si bien las máquinas de hoy en día no pueden sentir ni simpatía ni empatía, los desarrolladores podrían programar estas señales en la tecnología actual de chatbot y asistente de voz, según los investigadores que informan de sus hallazgos en la edición actual de Ciberpsicología, Comportamiento y redes sociales .

    Sin embargo, los chatbots pueden volverse demasiado personales para algunas personas, dijo Bingjie Liu, un candidato a doctorado en comunicación de masas, que trabajó con Sundar en el estudio. Dijo que los participantes del estudio que desconfiaban de las máquinas conscientes indicaron que estaban impresionados por los chatbots que estaban programados para ofrecer declaraciones de simpatía y empatía.

    "La mayoría de las personas de nuestra muestra no creían realmente en la emoción de las máquinas, asi que, en nuestra interpretación, tomaron esas expresiones de empatía y simpatía como cortesías, ", dijo Liu." Cuando miramos a personas que tienen diferentes creencias, sin embargo, descubrimos que las personas que piensan que es posible que las máquinas puedan tener emociones tuvieron reacciones negativas a estas expresiones de simpatía y empatía de los chatbots ".

    Los investigadores reclutaron a 88 voluntarios de una universidad y de Amazon Mechanical Turk, una plataforma de tareas en línea. Se pidió a los voluntarios que interactuaran con uno de los cuatro chatbots de servicios de salud en línea diferentes programados para brindar respuestas específicas a una de las cuatro condiciones establecidas por los investigadores:simpatía, dos tipos diferentes de empatía, la empatía cognitiva y la empatía afectiva, o una condición de control de solo asesoramiento.

    En la versión simpática, el chatbot respondió con una declaración, tal como, "Lamento oír eso." El chatbot programado para la empatía cognitiva, que reconoció los sentimientos del usuario, podría decir, "Ese tema puede ser bastante perturbador". Un chatbot que expresó empatía afectiva podría responder con una oración que mostrara que la máquina entendió cómo y por qué un usuario se sintió de esa manera. tal como, "Entiendo tu ansiedad por la situación".

    Los investigadores dijeron que la empatía y la simpatía afectivas funcionaban mejor.

    "Descubrimos que la empatía cognitiva, donde la respuesta es algo distante y aborda el problema desde una perspectiva reflexiva, pero de forma casi antiséptica, no funcionó del todo, "dijo Sundar." Por supuesto, los chatbots y los robots lo hacen bastante bien, pero ese es también el estereotipo de las máquinas. Y no parece ser tan efectivo. Lo que parece funcionar mejor es la empatía afectiva, o una expresión de simpatía ".

    En un estudio anterior, los investigadores pidieron a los participantes que simplemente leyeran el guión de la conversación entre un sujeto humano y una máquina. Encontraron efectos similares en el uso de la simpatía y la empatía en los mensajes.

    Los investigadores dijeron que la investigación futura podría examinar cómo funcionan las interacciones comprensivas y empáticas para diferentes problemas más allá de la salud y la sexualidad. así como investigar cómo se sienten las personas si las máquinas y los robots similares a los humanos brindan ese tipo de respuestas.

    "Queremos ver si este es un patrón consistente en cómo los humanos reaccionan a las emociones de las máquinas, "dijo Liu.


    © Ciencia https://es.scienceaq.com