Crédito:CC0 Dominio público
No es ningún secreto, la inteligencia artificial (IA) está cambiando el juego del servicio al cliente.
La sociedad se encuentra en un período de transición tecnológica en el que los agentes de IA reemplazan cada vez más a los representantes en vivo. Se han adoptado en una amplia gama de dominios de consumidores, desde el comercio minorista tradicional, los viajes, los viajes y el uso compartido de la residencia hasta los servicios legales y médicos.
Dadas las capacidades de procesamiento avanzadas y las ventajas de costos de mano de obra, se espera que esta transición continúe.
Pero, ¿cuáles son las implicaciones para la respuesta y satisfacción del cliente?
¿Somos más indulgentes con un bot de IA que con un agente en vivo cuando nos decepcionan? ¿Menos apreciativo cuando nos ayudan?
Investigadores de la Universidad de Kentucky, la Universidad de Illinois-Chicago y la Universidad Tecnológica de Sydney realizaron un estudio para examinar estas preguntas.
El estudio, de próxima aparición en el Journal of Marketing — se titula "¿Malas noticias? Enviar una IA. ¿Buenas noticias? Enviar un ser humano" y está escrito por Aaron Garvey, TaeWoo Kim y Adam Duhachek.
"Comenzó con querer entender si tenemos un 'punto ciego' cuando negociamos con una IA en lugar de con un humano. En particular, un punto ciego que permite que la IA se salga con la suya con una oferta que no aceptaríamos de un humano". Garvey, profesor de marketing en el Gatton College of Business and Economics, dijo. "La IA ya parece estar en todas partes, pero reemplazará a más representantes humanos a medida que pase el tiempo. Quería entender si esto deja a los consumidores abiertos a la explotación a través de tales puntos ciegos, y cómo podemos lidiar con esto de manera ética".
Según el estudio, cuando la oferta de un producto o servicio es peor de lo esperado, los consumidores responden mejor a un agente de IA. Sin embargo, para una oferta mejor de lo esperado, los consumidores responden más favorablemente a un agente en vivo.
"Esto sucede porque se percibe que los agentes de IA tienen intenciones personales más débiles al tomar decisiones", dijo Garvey. "Dado que un agente de IA es una máquina no humana, los consumidores normalmente no creen que su comportamiento esté motivado por un egoísmo o una bondad subyacentes".
En conclusión, los consumidores creen que los agentes de IA carecen de intenciones egoístas (que normalmente serían castigadas) en el caso de una oferta desfavorable y carecen de intenciones benévolas (que normalmente serían recompensadas) en el caso de una oferta favorable.
Sin embargo, diseñar un agente de IA para que parezca más humano puede cambiar la respuesta del consumidor. Por ejemplo, un robot de servicio con estructura corporal y rasgos faciales provoca respuestas más favorables a una oferta mejor de lo esperado.
"Esto ocurre porque se percibe que los agentes de IA que son más parecidos a los humanos tienen intenciones más fuertes", dijo Garvey.
¿Qué significan estos resultados para los directores de marketing?
"Para un vendedor que está a punto de dar malas noticias a un cliente, un representante de IA mejorará la respuesta de ese cliente. Este sería el mejor enfoque para situaciones negativas como ofertas de precios inesperadamente altos, cancelaciones, demoras, evaluaciones negativas, cambios de estado, productos defectuosos, rechazos, fallas en el servicio y desabastecimiento", explicó Kim. "Sin embargo, las buenas noticias las transmite mejor un ser humano. Los resultados positivos inesperados podrían incluir entregas aceleradas, reembolsos, actualizaciones, paquetes de servicios, ofertas exclusivas, recompensas por lealtad y promociones para clientes".
Para los consumidores, estos hallazgos revelan un "punto ciego" cuando tratan con agentes de IA, en particular cuando consideran ofertas que no cumplen con las expectativas.
"Esperamos que concienciar a los consumidores sobre este fenómeno mejore la calidad de sus decisiones al tratar con agentes de IA, al tiempo que proporciona técnicas a los gerentes de marketing, como hacer que la IA sea más humana en ciertos contextos, para manejar este dilema", dijo Duhachek.