Confianza y engaño: el papel de las disculpas en las interacciones humano-robot

Estás leyendo la publicación: Confianza y engaño: el papel de las disculpas en las interacciones humano-robot

El engaño de los robots es un campo poco estudiado con más preguntas que respuestas, particularmente cuando se trata de reconstruir la confianza en los sistemas robóticos después de que se les haya descubierto mintiendo. Dos estudiantes investigadores de Georgia Tech, Kantwon Rogers y Reiden Webber, están tratando de encontrar respuestas a este problema investigando cómo el engaño intencional de los robots afecta la confianza y la efectividad de las disculpas para reparar la confianza.

Rogers, un doctorado. estudiante de la Facultad de Informática, explica:

“Todo nuestro trabajo anterior ha demostrado que cuando las personas descubren que los robots les mintieron, incluso si la mentira tenía la intención de beneficiarlos, pierden la confianza en el sistema”.

Los investigadores tienen como objetivo determinar si los diferentes tipos de disculpas son más efectivos para restaurar la confianza en el contexto de la interacción humano-robot.

El experimento de conducción asistida por IA y sus implicaciones

El dúo diseñó un experimento de simulación de conducción para estudiar la interacción humano-IA en una situación de alto riesgo y sensible al tiempo. Reclutaron a 341 participantes en línea y 20 participantes en persona. La simulación involucró un escenario de conducción asistida por IA donde la IA proporcionó información falsa sobre la presencia de la policía en la ruta a un hospital. Después de la simulación, la IA proporcionó una de cinco respuestas diferentes basadas en texto, incluidos varios tipos de disculpas y no disculpas.

El resultados reveló que los participantes tenían 3,5 veces más probabilidades de no acelerar cuando un asistente robótico les aconsejaba, lo que indica una actitud de confianza excesiva hacia la IA. Ninguno de los tipos de disculpa restauró por completo la confianza, pero la disculpa simple sin admisión de mentira (“lo siento”) superó a las otras respuestas. Este hallazgo es problemático, ya que explota la noción preconcebida de que cualquier información falsa proporcionada por un robot es un error del sistema y no una mentira intencional.

🔥 Recomendado:  5 de los mejores escritores gratuitos de IA para 2023

Reiden Webber señala:

“Un punto clave es que, para que las personas entiendan que un robot los ha engañado, se les debe decir explícitamente”.

Cuando los participantes se dieron cuenta del engaño en la disculpa, la mejor estrategia para reparar la confianza fue que el robot explicara por qué mintió.

Avanzando: Implicaciones para usuarios, diseñadores y formuladores de políticas

Esta investigación tiene implicaciones para los usuarios promedio de tecnología, los diseñadores de sistemas de IA y los formuladores de políticas. Es crucial que las personas entiendan que el engaño robótico es real y siempre es una posibilidad. Los diseñadores y tecnólogos deben considerar las ramificaciones de crear sistemas de IA capaces de engañar. Los formuladores de políticas deben tomar la iniciativa en la elaboración de una legislación que equilibre la innovación y la protección para el público.

El objetivo de Kantwon Rogers es crear un sistema robótico que pueda aprender cuándo mentir y cuándo no mentir cuando se trabaja con equipos humanos, así como cuándo y cómo disculparse durante interacciones repetidas entre humanos y IA a largo plazo para mejorar el rendimiento del equipo.

Él enfatiza la importancia de comprender y regular el robot y el engaño de la IA, diciendo:

“El objetivo de mi trabajo es ser muy proactivo e informar sobre la necesidad de regular el engaño de los robots y la IA. Pero no podemos hacer eso si no entendemos el problema”.

Esta investigación aporta conocimientos vitales al campo del engaño de la IA y ofrece información valiosa para los diseñadores de tecnología y los encargados de formular políticas que crean y regulan la tecnología de IA capaz de engañar o potencialmente aprender a engañar por sí sola.