Los estudios encuentran que la inteligencia artificial emocional no siempre mejora el servicio al cliente

Estás leyendo la publicación: Los estudios encuentran que la inteligencia artificial emocional no siempre mejora el servicio al cliente

Un equipo de investigadores de la Facultad de Negocios Schiller del Instituto de Tecnología de Georgia ha realizado estudios experimentales para ver si las muestras emocionales positivas mejoran el servicio al cliente. El equipo descubrió que la IA emotiva solo se aprecia cuando el cliente la espera, lo que significa que es posible que no siempre valga la pena la inversión para las empresas.

La investigación titulada “Bots con sentimientos: ¿Deberían los agentes de IA expresar emociones positivas en el servicio al cliente?” fue publicado en Investigación de Sistemas de Información.

La nueva información surge a medida que los chatbots de IA continúan apoderándose del comercio en línea, con estimaciones que muestran que para 2025, el 95% de las empresas tendrán un chatbot de IA.

Han Zhang es profesor de Steven A. Denning en Tecnología y Gestión.

“Se cree comúnmente y se demuestra repetidamente que los empleados humanos pueden expresar emociones positivas para mejorar las evaluaciones de servicio de los clientes”, dijo Zhang. “Nuestros hallazgos sugieren que la probabilidad de que la expresión de emoción positiva de AI beneficie o perjudique las evaluaciones del servicio depende del tipo de relación que los clientes esperan del agente atendido”.

Realización de tres estudios separados

El equipo llevó a cabo tres estudios para comprender mejor la inteligencia artificial emocional en las transacciones de servicio al cliente. Cada estudio tuvo diferentes participantes, y los chatbots de IA usaron adjetivos emocionales positivos como emocionado, encantado, feliz o contento. También usaron más signos de exclamación.

🔥 Recomendado:  Los 15 mejores programas de afiliados de alto costo (pagos altos)

En el primer estudio que involucró a 155 participantes, los investigadores buscaron comprender el impacto de la emoción positiva en la satisfacción del cliente. Se pidió a los sujetos que respondieran como si hubieran pedido un artículo a un minorista y faltara; luego se encontraron con agentes (tanto humanos como bots) que mostraban emociones neutrales o positivas. Los hallazgos revelaron que cuando recibieron el apoyo de agentes humanos, los clientes respondieron más favorablemente hacia la positividad emocional que en escenarios con bots solos, lo que generó implicaciones interesantes para las empresas sobre la mejor manera de interactuar virtualmente con sus clientes.

El segundo estudio reveló que las expectativas de los clientes pueden moldear significativamente la reacción a un bot basado en emociones. Cuando se les pidió que calificaran su orientación en una escala, 88 participantes que imaginaron devolver libros de texto demostraron diferentes preferencias en función de si tenían una inclinación comunitaria o transaccional. Los resultados mostraron que cuando los clientes proyectaban más una mentalidad de intercambio, los bots emocionales positivos en realidad tenían un impacto negativo, destacando cuán vital es para las empresas comprender la intención del usuario para proporcionar métodos de participación efectivos.

“Nuestro trabajo permite a las empresas comprender las expectativas de los clientes expuestos a los servicios proporcionados por IA antes de que equipen a la IA al azar con capacidades de expresión de emociones”, dijo Zhang.

Con 177 estudiantes universitarios, el estudio final investigó las razones por las que los bots con emociones positivas no siempre tienen los efectos deseados. Los clientes no anticipan necesariamente las máquinas que exhiben emociones y, a veces, los robots que las muestran demasiado pueden apagarlas.

🔥 Recomendado:  Dónde vender joyas en línea o cerca de mí

Todos los resultados demuestran que puede ser un desafío para las empresas usar emociones positivas en los chatbots, ya que no conocen los prejuicios y las expectativas de un cliente.

“Nuestros hallazgos sugieren que el efecto positivo de expresar una emoción positiva en las evaluaciones del servicio puede no materializarse cuando la fuente de la emoción no es humana”, dijo Zhang. “Los profesionales deben tener cuidado con las promesas de equipar a los agentes de IA con capacidades de expresión de emociones”.