Aprender cómo las personas interactúan con la IA es un paso importante en la integración de las máquinas en la sociedad de manera beneficiosa. Crédito:Pixabay
Aprender cómo las personas interactúan con máquinas habilitadas para inteligencia artificial y usar ese conocimiento para mejorar la confianza de las personas en la IA puede ayudarnos a vivir en armonía con el número cada vez mayor de robots. chatbots y otras máquinas inteligentes entre nosotros, según un investigador de Penn State.
En un artículo publicado en la edición actual de Journal of Computer-Mediated Communication, S. Shyam Sundar, James P. Jimirro Profesor de Efectos en los Medios en la Facultad de Comunicaciones Donald P. Bellisario y codirector del Laboratorio de Investigación de Efectos en los Medios, ha propuesto un camino, o marco, estudiar IA, que puede ayudar a los investigadores a investigar mejor cómo las personas interactúan con la inteligencia artificial, o Interacción humano-IA (HAII).
"Este es un intento de analizar sistemáticamente todas las formas en que la inteligencia artificial podría influir psicológicamente en los usuarios, especialmente en términos de confianza, "dijo Sundar, quien también es afiliado del Instituto de Ciencias Computacionales y de Datos de Penn State (ICDS). "Ojalá, El modelo teórico avanzado en este artículo proporcionará a los investigadores un marco, así como un vocabulario, para estudiar los efectos psicológicos sociales de la IA ".
El marco identifica dos rutas, señales y acciones, en las que los desarrolladores de IA pueden centrarse para ganar confianza y mejorar la experiencia del usuario. dijo Sundar. Las señales son señales que pueden desencadenar una variedad de respuestas mentales y emocionales de las personas.
"La ruta de la señal se basa en indicadores superficiales de cómo se ve la IA o lo que aparentemente hace, " él explicó.
Sundar agregó que hay varias señales que afectan si los usuarios confían en la IA. Las señales pueden ser tan obvias como el uso de características similares a las humanas, como un rostro humano que tienen algunos robots, o una voz humana que usan los asistentes virtuales como Siri y Alexa.
Otras señales pueden ser más sutiles, como una declaración en la interfaz que explique cómo funciona el dispositivo, como cuando Netflix explica por qué recomienda una determinada película a los espectadores.
Pero, cada una de estas señales puede desencadenar distintos atajos mentales o heurísticas, según Sundar.
"Cuando el usuario identifica una IA como una máquina en lugar de un humano, como sucede a menudo en los chatbots de hoy en día, activa la 'máquina heurística, "o un atajo mental que nos lleve a aplicar automáticamente todos los estereotipos que tenemos sobre las máquinas, ", dijo Sundar." Podríamos pensar que las máquinas son precisas y precisas, pero también podríamos pensar que las computadoras y las máquinas son frías e inflexibles ”. Estos estereotipos, a su vez, dictan cuánto confiamos en el sistema de inteligencia artificial.
Sundar sugirió que los sistemas de piloto automático en los aviones son un ejemplo de cómo la confianza excesiva en la IA puede tener repercusiones negativas. Los pilotos pueden confiar tan implícitamente en el sistema de piloto automático que relajan la guardia y no están preparados para cambios repentinos en el rendimiento del avión o fallas que requerirían su intervención. Cita este tipo de "sesgo de automatización" como una indicación de nuestra profunda confianza en el rendimiento de la máquina.
Por otra parte, La IA también puede desencadenar sesgos negativos para algunas personas.
"Lo opuesto al sesgo de automatización sería la aversión al algoritmo, ", dijo Sundar." Hay personas que simplemente sienten aversión porque, quizás en el pasado, fueron quemados por un algoritmo y ahora desconfían profundamente de la IA. Probablemente fueron engañados por 'deepfakes' que son videos fabricados creados con tecnología de inteligencia artificial, o recibieron una recomendación de producto incorrecta de un sitio de comercio electrónico, o sintieron que su privacidad fue invadida por la inteligencia artificial que husmeaba en sus búsquedas y compras anteriores ".
Sundar aconsejó a los desarrolladores que presten especial atención a las señales que pueden ofrecer a los usuarios.
"Si proporciona indicaciones claras en la interfaz, puede ayudar a dar forma a la respuesta de los usuarios, pero si no proporcionas buenas pistas, dejará que la experiencia previa del usuario y las teorías populares, o nociones ingenuas, acerca de los algoritmos para asumir el control, "Dijo Sundar.
Además de proporcionar pistas, La capacidad de la IA para interactuar con las personas también puede modelar la experiencia del usuario. según Sundar. Él llama a esto la "ruta de acción".
"La ruta de acción se trata realmente de colaboración, ", dijo Sundar." Las IA deberían participar y trabajar con nosotros. La mayoría de las nuevas herramientas de IA:los altavoces inteligentes, robots y bots de chat:son muy interactivos. En este caso, no son solo señales visibles sobre su apariencia y lo que dicen, sino sobre cómo interactúan contigo ".
Tanto en acciones como en señales, Sundar sugiere que los desarrolladores mantengan el equilibrio correcto. Por ejemplo, una señal que no le dice de manera transparente al usuario que la IA está trabajando en el dispositivo podría desencadenar señales negativas, pero si la señal proporciona demasiados detalles, la gente puede intentar corromper —o "jugar" - la interacción con la IA. "Por lo tanto, es muy importante indicar la cantidad correcta de transparencia en la interfaz, " él dijo.
"Si tu altavoz inteligente te hace demasiadas preguntas, o interactúa demasiado contigo, Eso podría ser un problema, también, ", dijo Sundar." La gente quiere colaboración. Pero también quieren minimizar sus costos. Si la IA te hace preguntas constantemente, entonces todo el punto de la IA, a saber, conveniencia, se ha ido."
Sundar dijo que espera que el marco de señales y acciones guíe a los investigadores mientras prueban estos dos caminos hacia la confianza de la IA. Esto generará evidencia para informar cómo los desarrolladores y diseñadores crean herramientas y tecnología impulsadas por IA para las personas.
La tecnología de inteligencia artificial está evolucionando tan rápido que muchos críticos están presionando para prohibir por completo ciertas aplicaciones. Sundar dijo que dar a los investigadores el tiempo para investigar a fondo y comprender cómo los humanos interactúan con la tecnología es un paso necesario para ayudar a la sociedad a aprovechar los beneficios de los dispositivos. minimizando al mismo tiempo las posibles implicaciones negativas.
"Cometeremos errores, ", dijo Sundar." Desde la imprenta hasta Internet, las nuevas tecnologías de los medios han tenido consecuencias negativas, pero también han dado lugar a muchos más beneficios. No hay duda de que ciertas manifestaciones de la IA nos frustrarán, pero en algún momento, tendremos que coexistir con la IA y traerlos a nuestras vidas ".