Crédito:Pixabay/CC0 Dominio público
Investigadores de la Universidad de Kentucky, la Universidad de Tecnología de Sydney y la Universidad de Illinois-Chicago publicaron un nuevo artículo en el Journal of Marketing que examina la respuesta del cliente y las implicaciones de satisfacción del uso de agentes de IA frente a agentes humanos.
El estudio, que se publicará próximamente en el Journal of Marketing, se titula "¿Malas noticias? Enviar una IA. ¿Buenas noticias? Enviar un humano" y está escrito por Aaron Garvey, TaeWoo Kim, Adam Duhachek.
¿Somos más indulgentes con un agente de inteligencia artificial (IA) que con un humano cuando nos decepcionan? ¿Menos aprecio por un bot de IA que por un humano cuando nos ayudan? Una nueva investigación examina estas preguntas y descubre que los consumidores responden de manera diferente al trato favorable y desfavorable a manos de un agente de IA frente a otro ser humano.
Los consumidores y los gerentes de marketing se encuentran actualmente en un período de transición tecnológica en el que los agentes de IA reemplazan cada vez más a los representantes humanos. Los agentes de IA se han adoptado en una amplia gama de dominios de consumidores para manejar las transacciones de los clientes, incluidos el comercio minorista tradicional, los viajes, los viajes compartidos y la residencia, e incluso los servicios legales y médicos. Dadas las capacidades avanzadas de procesamiento de información de los agentes de IA y las ventajas de costos de mano de obra, se espera que continúe la transición de los representantes humanos para administrar productos y servicios. Sin embargo, ¿cuáles son las implicaciones para la respuesta y satisfacción del cliente?
Los investigadores encuentran que cuando la oferta de un producto o servicio es peor de lo esperado, los consumidores responden mejor cuando tratan con un agente de IA. Por el contrario, ante una oferta mejor de lo esperado, los consumidores responden más favorablemente a un agente humano. Garvey explica que "esto sucede porque se percibe que los agentes de IA, en comparación con los agentes humanos, tienen intenciones personales más débiles al tomar decisiones. Es decir, dado que un agente de IA es una máquina no humana, los consumidores generalmente no creen que el comportamiento de un agente de IA está impulsado por el egoísmo o la bondad subyacentes". Como resultado, los consumidores creen que los agentes de IA carecen de intenciones egoístas (que normalmente serían castigadas) en el caso de una oferta desfavorable y carecen de intenciones benévolas (que normalmente serían recompensadas) en el caso de una oferta favorable.
Diseñar un agente de IA para que parezca más humano puede cambiar la respuesta del consumidor. Por ejemplo, un robot de servicio que parece más humano (p. ej., con estructura corporal y rasgos faciales humanos) provoca respuestas más favorables a una oferta mejor de lo esperado que un agente de IA más parecido a una máquina sin rasgos humanos. Esto ocurre porque se percibe que los agentes de IA que son más parecidos a los humanos tienen intenciones más fuertes al hacer la oferta.
¿Qué significa esto para los gerentes de marketing? Kim dice:"Para un vendedor que está a punto de dar malas noticias a un cliente, un representante de IA mejorará la respuesta de ese cliente. Este sería el mejor enfoque para situaciones negativas como ofertas de precios inesperadamente altos, cancelaciones, demoras, evaluaciones negativas, cambios de estado, defectos de productos, rechazos, fallas en el servicio y desabastecimientos. Sin embargo, las buenas noticias las entrega mejor un ser humano. Los resultados positivos inesperados podrían incluir entregas aceleradas, reembolsos, actualizaciones, paquetes de servicios, ofertas exclusivas, recompensas de lealtad y promociones para clientes".
Los gerentes pueden aplicar nuestros hallazgos para priorizar (vs. posponer) las transiciones de roles humanos a AI en situaciones donde las interacciones negativas (vs. positivas) son más frecuentes. Además, incluso cuando una transición de roles no se transfiere por completo a un agente de IA, el reclutamiento selectivo de un agente de IA para revelar cierta información negativa aún podría ser ventajoso. Las empresas que ya han hecho la transición a agentes de IA orientados al consumidor, incluida la multitud de aplicaciones móviles y en línea que utilizan algoritmos basados en IA para crear y administrar ofertas, también se beneficiarán de nuestros hallazgos. Nuestra investigación revela que los agentes de IA deben hacerse selectivamente para que parezcan más o menos humanos según la situación. Para los consumidores, estos hallazgos revelan un "punto ciego" cuando tratan con agentes de IA, particularmente cuando consideran ofertas que no cumplen con las expectativas. De hecho, la investigación revela un dilema ético en torno al uso de agentes de IA:¿es apropiado usar IA para eludir la resistencia del consumidor a las malas ofertas? "Esperamos que concienciar a los consumidores sobre este fenómeno mejore la calidad de sus decisiones al tratar con agentes de IA, al mismo tiempo que proporciona técnicas a los gerentes de marketing, como hacer que la IA sea más humana en ciertos contextos, para manejar este dilema", dice Duhachek.