Crédito:Pixabay/CC0 Dominio público
La desconfianza de una persona en los humanos predice que tendrá más confianza en la capacidad de la inteligencia artificial para moderar el contenido en línea, según un estudio publicado recientemente. Los hallazgos, dicen los investigadores, tienen implicaciones prácticas tanto para los diseñadores como para los usuarios de herramientas de inteligencia artificial en las redes sociales.
"Encontramos un patrón sistemático de personas que tienen menos confianza en otros humanos que muestran una mayor confianza en la clasificación de AI", dijo S. Shyam Sundar, profesor de efectos de medios James P. Jimirro en Penn State. "Según nuestro análisis, esto parece deberse a que los usuarios invocan la idea de que las máquinas son precisas, objetivas y libres de prejuicios ideológicos".
El estudio, publicado en la revista de New Media &Society También encontró que los "usuarios avanzados", que son usuarios experimentados de tecnología de la información, tenían la tendencia opuesta. Confiaban menos en los moderadores de IA porque creen que las máquinas carecen de la capacidad de detectar los matices del lenguaje humano.
El estudio encontró que las diferencias individuales, como la desconfianza hacia los demás y el uso de energía, predicen si los usuarios invocarán características positivas o negativas de las máquinas cuando se enfrenten a un sistema basado en inteligencia artificial para la moderación de contenido, lo que en última instancia influirá en su confianza hacia el sistema. Los investigadores sugieren que la personalización de las interfaces en función de las diferencias individuales puede alterar positivamente la experiencia del usuario. El tipo de moderación de contenido en el estudio implica monitorear las publicaciones en las redes sociales en busca de contenido problemático como discurso de odio e ideación suicida.
"Una de las razones por las que algunos pueden dudar en confiar en la tecnología de moderación de contenido es que estamos acostumbrados a expresar libremente nuestras opiniones en línea. Creemos que la moderación de contenido puede quitarnos eso", dijo Maria D. Molina, profesora asistente de artes y ciencias de la comunicación en la Universidad Estatal de Michigan, y el primer autor de este artículo. "Este estudio puede ofrecer una solución a ese problema al sugerir que para las personas que tienen estereotipos negativos de la IA para la moderación de contenido, es importante reforzar la participación humana al tomar una decisión. Por otro lado, para las personas con estereotipos positivos de las máquinas, podemos reforzar la fuerza de la máquina destacando elementos como la precisión de la IA".
El estudio también encontró que los usuarios con ideología política conservadora tenían más probabilidades de confiar en la moderación impulsada por IA. Molina y el coautor Sundar, quien también codirige el Laboratorio de Investigación de Efectos de los Medios de Penn State, dijeron que esto puede deberse a una desconfianza en los principales medios y las empresas de redes sociales.
Los investigadores reclutaron a 676 participantes de los Estados Unidos. Se les dijo a los participantes que estaban ayudando a probar un sistema de moderación de contenido que estaba en desarrollo. Se les dieron definiciones de discurso de odio e ideación suicida, seguidas de una de cuatro publicaciones diferentes en las redes sociales. Las publicaciones se marcaron por ajustarse a esas definiciones o no se marcaron. A los participantes también se les dijo si la decisión de marcar la publicación o no la tomó la IA, un ser humano o una combinación de ambos.
La demostración fue seguida por un cuestionario que preguntaba a los participantes sobre sus diferencias individuales. Las diferencias incluían su tendencia a desconfiar de los demás, la ideología política, la experiencia con la tecnología y la confianza en la IA.
“Estamos bombardeados con tanto contenido problemático, desde información errónea hasta discursos de odio”, dijo Molina. "Pero, al final del día, se trata de cómo podemos ayudar a los usuarios a calibrar su confianza hacia la IA debido a los atributos reales de la tecnología, en lugar de dejarse influir por esas diferencias individuales".
Molina y Sundar dicen que sus resultados pueden ayudar a dar forma a la futura aceptación de la IA. Al crear sistemas personalizados para el usuario, los diseñadores podrían aliviar el escepticismo y la desconfianza, y generar una confianza adecuada en la IA.
"Una importante implicación práctica del estudio es descubrir estrategias de comunicación y diseño para ayudar a los usuarios a calibrar su confianza en los sistemas automatizados", dijo Sundar, quien también es director del Centro de Inteligencia Artificial Socialmente Responsable de Penn State. "Ciertos grupos de personas que tienden a tener demasiada fe en la tecnología de inteligencia artificial deben ser alertados sobre sus limitaciones y aquellos que no creen en su capacidad para moderar el contenido deben estar completamente informados sobre el alcance de la participación humana en el proceso". Los usuarios confían en la IA tanto como en los humanos para marcar contenido problemático