Crédito:CC0 Public Domain
En un mercado en línea como Airbnb, Los perfiles de los anfitriones pueden significar la diferencia entre una habitación reservada y una vacía. Demasiado vivaz demasiado largo, demasiados signos de exclamación? El lenguaje es fundamental en la búsqueda de confianza y autenticidad de un usuario, factores cruciales en cualquier intercambio en línea.
Con tanto en juego ¿Deberían los anfitriones de Airbnb confiar en un algoritmo para escribir sus perfiles?
Eso depende, según una nueva investigación de Cornell y la Universidad de Stanford. Si todo el mundo usa perfiles generados algorítmicamente, los usuarios confían en ellos. Sin embargo, si solo algunos anfitriones eligen delegar las responsabilidades de redacción a la inteligencia artificial, es probable que se desconfíe de ellos. Los investigadores llamaron a esto el "efecto replicante", un guiño a la película "Blade Runner".
"Los participantes buscaban señales que se sintieran mecánicas versus un lenguaje que se sintiera más humano y emocional, "dijo Maurice Jakesch, estudiante de doctorado en ciencias de la información en Cornell Tech y autor principal de "AI-Mediated Communication:How the Perception that Profile Text was Written by AI Affects Trustworthiness, "que se presentará en la Conferencia ACM sobre factores humanos en sistemas informáticos, 4-9 de mayo en Glasgow, Escocia.
"Tenían sus propias teorías sobre cómo se vería un perfil generado por IA, ", Dijo Jakesch." Si hubo errores graves de ortografía en un perfil, dirían que es más humano, mientras que si el perfil de alguien parecía desarticulado o sin sentido, asumieron que era IA ".
La inteligencia artificial revolucionará las tecnologías del lenguaje natural y la forma en que los humanos interactúan entre sí. Las personas ya experimentan alguna comunicación mediada por IA:Gmail escanea el contenido de nuestros correos electrónicos que llegan y genera sugerencias, respuestas inteligentes con un solo clic, "y una nueva generación de ayudas para la escritura no solo corrige nuestros errores de ortografía, sino que pule nuestro estilo de escritura.
"Estamos comenzando a ver las primeras instancias de inteligencia artificial operando como mediador entre humanos, pero es una cuestión de:'¿La gente quiere eso?' ", dijo Jakesch." Podríamos encontrarnos en una situación en la que la comunicación mediada por IA esté tan extendida que se convierta en parte de cómo las personas evalúan lo que ven en línea ".
En el estudio, Los investigadores buscaron explorar si los usuarios confían en representaciones generadas o optimizadas algorítmicamente, particularmente en los mercados en línea. El equipo realizó tres experimentos, reclutando a cientos de participantes en Amazon Mechanical Turk para evaluar real, Perfiles de Airbnb generados por humanos. En algunos casos, se hizo creer a los participantes que algunos o todos los perfiles se generaron a través de un sistema de IA automatizado. A continuación, se pidió a los participantes que dieran a cada perfil una puntuación de fiabilidad.
Cuando se les dijo que estaban viendo todos los perfiles generados por humanos o todos los generados por IA, los participantes no parecían confiar más en uno que en el otro. Calificaron los perfiles generados por humanos y por IA casi de la misma manera.
Pero eso cambió cuando se informó a los participantes que estaban viendo un conjunto mixto de perfiles. Dejados para decidir si los perfiles que estaban leyendo fueron escritos por un humano o un algoritmo, los usuarios desconfiaban de los que creían que eran generados por máquinas.
"Cuantos más participantes hayan creído que un perfil fue generado por IA, cuanto menos tendían a confiar en el anfitrión, a pesar de que los perfiles que calificaron fueron escritos por los anfitriones reales, "escribieron los autores.
¿Qué tiene de malo el uso de la comunicación mediada por IA? Como dijo un participante del estudio, Los perfiles generados por IA "pueden ser útiles, pero también un poco perezosos. Lo que me hace cuestionar de qué otras cosas serán perezosos".
A medida que la IA se vuelve más común y poderosa, directrices fundamentales, la ética y la práctica se vuelven vitales, dijeron los investigadores. Sus hallazgos sugieren que hay formas de diseñar herramientas de comunicación de IA que mejoren la confianza de los usuarios humanos. Para principiantes, Jakesch dijo:las empresas podrían agregar un emblema en todo el texto producido por IA, como algunos medios de comunicación ya utilizan en contenido creado por algoritmos. Vale la pena explorar ahora las directrices y normas de diseño y políticas para el uso de la comunicación mediada por IA, añadió.
"El valor de estas tecnologías dependerá de cómo estén diseñadas, cómo se comunican a las personas y si podemos establecer un ecosistema saludable a su alrededor, ", dijo." Viene con una serie de nuevas preguntas éticas:¿es aceptable que mi asistente algorítmico genere una versión más elocuente de mí? ¿Está bien que un algoritmo les diga buenas noches a mis hijos en mi nombre? Estas son preguntas que deben discutirse ".
El artículo fue coautor con Mor Naaman, profesor asociado de ciencia de la información en el Instituto Jacobs Technion-Cornell de Cornell Tech; Xiao Ma, estudiante de doctorado en ciencias de la información en Cornell Tech; y Megan French y Jeffrey T. Hancock de Stanford.