Crédito:Universidad Estatal de Michigan
¿Estresado? ¿Necesito hablar? Recurrir a un chatbot para obtener apoyo emocional podría ayudar.
El profesor asociado de comunicación de ComArtSci, Jingbo Meng, quería ver qué tan efectivos podrían ser los chatbots de inteligencia artificial (IA) para enviar mensajes de apoyo. Así que preparó la investigación y utilizó una plataforma de desarrollo de chatbot para probarla.
"Los chatbots se han aplicado ampliamente en el servicio al cliente a través de la comunicación basada en texto o voz", dijo. "Es una extensión natural pensar en cómo los chatbots de IA pueden desempeñar un papel en brindar empatía después de escuchar las historias y preocupaciones de alguien".
Conversando
A principios de 2019, Meng comenzó a evaluar la efectividad de los chatbots empáticos comparándolos con el chat humano. Ella había estado siguiendo el crecimiento de las aplicaciones digitales de salud y bienestar, y vio el crecimiento fenomenal de aquellas relacionadas con la salud mental. Su colaboración anterior con colegas de ingeniería de MSU se centró en un sistema móvil portátil para detectar, rastrear y consultar a los usuarios sobre marcadores de comportamiento de estrés y depresión. La colaboración la inspiró a usar chatbots que inician conversaciones con los usuarios cuando se identifican los marcadores de comportamiento.
"Sentimos que algunas comunicaciones de chatbot podrían funcionar, otras no", dijo Meng. "Quería investigar más para entender por qué, de modo que podamos desarrollar mensajes más efectivos para usar dentro de las aplicaciones de salud mental".
Meng reclutó a 278 estudiantes universitarios de MSU para su estudio y les pidió que identificaran los principales factores estresantes que habían experimentado en el último mes. Luego, los participantes se conectaron a través de Facebook Messenger con un compañero de chat empático. A un grupo se le dijo que estarían hablando con un chatbot, otro entendió que estarían hablando con un humano. la arruga? Meng lo configuró para que solo los chatbots entregaran consultas y mensajes, lo que le permitió medir si los participantes reaccionaron de manera diferente cuando pensaron que su compañero de chat era humano.
Meng también varió el nivel de autorrevelación recíproca que experimentarían los participantes durante sus sesiones de 20 minutos. Algunos chatbots compartieron sus propias experiencias como una forma de evocar empatía. Otros chatbots simplemente expusieron sus propios problemas personales a expensas de no validar a los participantes".
Con la excepción de los diferentes escenarios de autodivulgación recíproca, el contenido y el flujo de las conversaciones se escribieron exactamente de la misma manera para los chatbots y para los compañeros de chat humanos percibidos. Los chatbots pidieron a los participantes que identificaran los factores estresantes. Preguntaron cómo se sentían los participantes. Investigaron por qué los participantes pensaban que los factores estresantes los hacían sentir de cierta manera. Luego, los chatbots compartieron sus propias experiencias.
"Fueron programados para validar y ayudar a los participantes a superar situaciones estresantes", dijo. "Nuestro objetivo era ver qué tan efectivos podrían ser los mensajes".
Cuidando
Meng descubrió que, ya sea que hablara con un chatbot o con un ser humano, un participante tenía que sentir que la pareja lo apoyaba o se preocupaba por él. Si se cumple esa condición, la conversación logra reducir el estrés.
Su estudio también reveló que, independientemente del mensaje, los participantes sintieron que los humanos eran más cariñosos y comprensivos que un chatbot.
Sus escenarios sobre la autorrevelación recíproca contaban otra historia. Los compañeros humanos que se revelaron a sí mismos, independientemente de si su intención era ser empáticos o simplemente explicar sus propios problemas, contribuyeron a la reducción del estrés. Pero los chatbots que se revelaron a sí mismos sin ofrecer apoyo emocional hicieron poco para reducir el estrés de un participante, incluso menos que los chatbots que no dijeron nada en absoluto.
"Los humanos son simplemente más identificables", dijo Meng. "Cuando hablamos con otro ser humano, incluso cuando no validan nuestras emociones, podemos relacionarnos de forma más natural. Sin embargo, los chatbots tienen que ser más explícitos y enviar mensajes de mayor calidad. De lo contrario, la autorrevelación puede ser molesta y fuera de lugar". -poner."
Percibir la fuente
Meng realizó y analizó una investigación con Yue (Nancy) Dai, alumna de 2018 del programa de doctorado en Comunicación de MSU y profesora en la Universidad de la Ciudad de Hong Kong. Sus hallazgos fueron publicados en el Journal of Computer-Mediated Communication.
Meng dijo que el estudio subraya que los chatbots utilizados en las aplicaciones de salud mental funcionan mejor cuando se perciben como una fuente verdaderamente solidaria. Ella planea hacer un seguimiento del estudio con investigaciones adicionales que examinen cómo se pueden diseñar los mensajes para aumentar el factor de cuidado.
Las aplicaciones de salud mental, dijo, no van a desaparecer y, de hecho, están aumentando en uso y disponibilidad. Si bien la mayoría de las personas tiene acceso a un teléfono móvil, muchas no tienen acceso inmediato a un terapeuta o seguro médico. Las aplicaciones, dijo, pueden ayudar a las personas a manejar situaciones particulares y pueden proporcionar puntos de referencia para una atención de apoyo adicional.
"De ninguna manera estas aplicaciones y chatbots reemplazarán a un humano", dijo. "Creemos que el modelo híbrido de chatbots de IA y un terapeuta humano será muy prometedor".