• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  •  Science >> Ciencia >  >> Otro
    Cuando los consumidores preferirían un chatbot a una persona
    Crédito:Pixabay/CC0 Dominio público

    En realidad, a veces los consumidores no quieren hablar con una persona real cuando compran en línea, sugiere un nuevo estudio. De hecho, lo que realmente quieren es un chatbot que deje claro que no es humano en absoluto.



    En un nuevo estudio, investigadores de la Universidad Estatal de Ohio descubrieron que las personas preferían interactuar con chatbots cuando se sentían avergonzadas por lo que estaban comprando en línea:artículos como medicamentos antidiarreicos o, para algunas personas, productos para el cuidado de la piel.

    "En general, las investigaciones muestran que las personas prefieren interactuar con un agente humano de servicio al cliente que con un chatbot", dijo Jianna Jin, quien dirigió el estudio como estudiante de doctorado en la Fisher College of Business de Ohio State.

    "Pero descubrimos que cuando las personas están preocupadas de que otros las juzguen, esa tendencia se invierte y prefieren interactuar con un chatbot porque se sienten menos avergonzados al tratar con un chatbot que con un humano".

    El estudio fue publicado recientemente en el Journal of Consumer Psychology con los coautores del estudio Jesse Walker, profesor asistente, y Rebecca Walker Reczek, profesora, ambas de marketing en el Fisher College de Ohio State.

    "Los chatbots se están volviendo cada vez más comunes como agentes de servicio al cliente, y en la mayoría de los estados las empresas no están obligadas a revelar si los utilizan", dijo Reczek. "Pero puede ser importante que las empresas informen a los consumidores si están tratando con un chatbot".

    La nueva investigación exploró lo que sucedía cuando los consumidores tenían lo que los psicólogos llaman preocupaciones de autopresentación:es decir, cuando las personas se preocupan por cómo su comportamiento y acciones pueden afectar la forma en que los demás los perciben. La compra de algunos productos puede generar estas preocupaciones.

    En uno de los cinco estudios que formaron parte del artículo, los investigadores pidieron a 386 estudiantes universitarios que se imaginaran comprando medicamentos antidiarreicos o para la fiebre del heno. Se les dio a elegir entre dos farmacias en línea, una de las cuales usaba chatbots y otra que usaba agentes de servicio al cliente.

    Cuando se les dijo a los participantes que estaban comprando medicamentos para la fiebre del heno, lo que no hace que la mayoría de las personas se sientan avergonzadas, el 91% dijo que usarían la tienda que tuviera agentes de servicios humanos. Pero cuando compraban medicamentos antidiarreicos, el 81% eligió la tienda con chatbots.

    Pero eso es sólo el comienzo de la historia. Los investigadores descubrieron en otros estudios que era importante cuán humanos aparecían y actuaban los chatbots en la pantalla.

    En otro estudio, se pidió a los participantes que se imaginaran comprando un medicamento antidiarreico en una farmacia en línea. Luego se les mostró uno de los tres íconos de chat en vivo:uno era un chatbot con un ícono que era solo un bocadillo, sin características humanas; un segundo era un chatbot con una caricatura de un humano; y el tercero presentaba una foto de perfil de una mujer real y claramente humana.

    Ambos chatbots se identificaron claramente ante los participantes como chatbots, pero el que tenía la caricatura de un humano real usó un lenguaje más emocional durante el intercambio, como "¡Estoy tan emocionado de verte!"

    Los resultados mostraron que los participantes estaban más dispuestos a recibir información sobre el producto vergonzoso de los dos chatbots que del humano. Pero el efecto no fue tan fuerte para el chatbot con el avatar humano de dibujos animados que usaba un lenguaje más emocional que el otro chatbot.

    El hecho de que este chatbot tuviera un avatar humano de dibujos animados y usara un lenguaje emocional puede haber dejado a los participantes en el estudio sintiéndose incómodos y menos dispuestos a interactuar, a pesar de que les dijeron que era un chatbot, dijo Walker.

    "Era como si los participantes se estuvieran protegiendo proactivamente contra la vergüenza al asumir que el chatbot podía ser humano", dijo Walker.

    En otro estudio, Jin diseñó un chatbot e hizo que los participantes participaran en una interacción real de ida y vuelta. Los participantes en este estudio fueron elegidos porque todos estaban totalmente de acuerdo en que querían causar una buena impresión a los demás con su piel.

    En otras palabras, tenían preocupaciones de presentación relacionadas con su piel y es posible que estuvieran interesados ​​en comprar productos para el cuidado de la piel porque les daba vergüenza su piel. Debido a esto, los investigadores creyeron que responderían más positivamente a chatbots claramente identificados.

    A los participantes en el estudio se les dijo que estaban interactuando con un agente de una marca de cuidado de la piel y si estaban hablando con un chatbot o un representante de servicio al cliente. Los participantes respondieron una serie de preguntas, incluida una en la que se les preguntaba si deseaban proporcionar su dirección de correo electrónico para obtener una muestra gratuita de la marca.

    Como plantearon los investigadores, era más probable que los participantes proporcionaran su dirección de correo electrónico si pensaban que estaban interactuando con un chatbot (62%) que con un humano (38%).

    En este estudio, así como en otros, los investigadores formularon preguntas diseñadas para comprender por qué los participantes prefieren los chatbots cuando tenían dudas sobre su propia presentación.

    Walker dijo que los resultados del estudio sugieren que los chatbots disminuyen la vergüenza porque los consumidores perciben que los chatbots son menos capaces de sentir emociones y evaluar a las personas.

    "Los consumidores se sienten menos avergonzados porque los chatbots no tienen el nivel de conciencia ni la capacidad para juzgarlos", afirmó.

    Jin, que ahora es profesor asistente en la Universidad de Notre Dame, dijo que los resultados sugieren que las empresas deben prestar atención al papel de los chatbots en sus negocios.

    "Es posible que los gerentes no se den cuenta de la importancia de utilizar chatbots cuando los consumidores tienen dudas sobre su propia presentación", afirmó.

    Y a medida que la IA conversacional continúa mejorando, puede resultar más difícil para los consumidores distinguir entre chatbots y agentes de servicios humanos, dijo Reczek. Esto podría ser un problema para las empresas cuyos clientes prefieren interactuar con chatbots debido a sus preocupaciones sobre la autopresentación y el temor a pasar vergüenza.

    "Será aún más importante que las empresas revelen claramente que utilizan chatbots si quieren que los consumidores se den cuenta de que están interactuando con un bot", afirmó Reczek.

    Más información: Jianna Jin et al, Evitar la vergüenza en línea:respuesta e inferencias sobre los chatbots cuando las compras activan preocupaciones de autopresentación, Journal of Consumer Psychology (2024). DOI:10.1002/jcpy.1414

    Información de la revista: Revista de Psicología del Consumidor

    Proporcionado por la Universidad Estatal de Ohio




    © Ciencia https://es.scienceaq.com