¿Están funcionando las intervenciones contra la desinformación en las redes sociales según lo previsto? Depende, según un nuevo estudio dirigido por investigadores de William &Mary y publicado en las Actas de la Conferencia CHI sobre factores humanos en sistemas informáticos (CHI '24).
Su estudio encuestó a más de 1.700 participantes en los Estados Unidos y reveló que las funciones contra la desinformación aumentaron la conciencia de los usuarios sobre la información errónea en las redes sociales; pero no los hizo más propensos a compartir información en las redes sociales ni a recibir información de las plataformas. Tanto la confianza como la desconfianza coexistieron en los participantes, emergiendo como características distintas y no simplemente como extremos opuestos de un espectro.
"La dinámica de confianza y desconfianza es la columna vertebral de la sociedad", afirmó Yixuan (Janice) Zhang, profesora asistente en el Departamento de Ciencias de la Computación William &Mary. El estudio definió y midió estos conceptos, proporcionando una encuesta validada para uso futuro.
Zhang se desempeñó como autor principal junto con Yimeng (Yvonne) Wang, Ph.D. estudiante de informática; El grupo de autores también incluyó investigadores de universidades de tres países, todos los cuales contribuyeron al campo multidisciplinario de la interacción persona-computadora.
"HCI tiene mucho que ver con la informática equitativa, porque estamos tratando con sujetos humanos", afirmó Zhang. Su experiencia en HCI se alinea con la posición de William &Mary en la evolución de las artes y las ciencias liberales, expresada acertadamente por la escuela propuesta en informática, ciencia de datos y física.
El estudio se centró en Facebook, X (anteriormente Twitter), YouTube y TikTok como fuentes de noticias e información de uso común, y señaló expresamente que el período comprendido entre enero de 2017 y enero de 2023 coincidió con el aumento de importantes campañas de desinformación.
Durante el período examinado, todas estas plataformas habían implementado estrategias contra la desinformación, como etiquetar información falsa, seleccionar contenido creíble y vincular a fuentes adicionales. Se mostraron ejemplos de estas intervenciones a los participantes del estudio que habían interactuado recientemente con las plataformas.
Luego, se pidió a los encuestados que expresaran su nivel de acuerdo con ocho afirmaciones, que midieron cuatro facetas de confianza y cuatro facetas de desconfianza.
Por ejemplo, las declaraciones que utilizan la dimensión de confianza de "competencia" probaron la confianza de los usuarios en la capacidad de las plataformas para combatir la desinformación; Las declaraciones que utilizaban la dimensión de desconfianza de "malevolencia" evaluaron la creencia de los usuarios en la supuesta difusión de información errónea por parte de las plataformas. Otras facetas de la confianza incluyeron la benevolencia, la confiabilidad y la confianza; la desconfianza conllevaba escepticismo, deshonestidad y miedo.
Además, el estudio investigó cómo intervenciones específicas contra la desinformación se relacionaban con la confianza y desconfianza de los usuarios en las redes sociales y cómo su experiencia con esas funciones influía en sus actitudes y comportamientos.
Un análisis de los resultados destacó un grupo de encuestados con alta confianza y alta desconfianza, lo que potencialmente indica que los usuarios eran exigentes en los aspectos específicos de las plataformas que respaldaban. Además, este fenómeno sugirió una discrepancia entre la percepción de los participantes de una plataforma determinada y sus experiencias de interacción. Esto significa que los usuarios, por ejemplo, pueden confiar en que otros usuarios compartirán información confiable y al mismo tiempo ser escépticos sobre la capacidad de la plataforma para abordar la información errónea.
Los investigadores también observaron que las percepciones de confianza y desconfianza variaban entre plataformas y estaban influenciadas por factores demográficos. Estos hallazgos, argumentaron, pueden ser útiles para los formuladores de políticas y reguladores a la hora de adaptar las intervenciones a las culturas y contextos específicos de los usuarios.
Como investigador de HCI, Zhang cree en la informática centrada en el ser humano y en la colaboración entre diversas disciplinas. Además de diseñar e implementar tecnologías computacionales, durante su doctorado. En el programa se familiarizó con las teorías de las ciencias sociales y educativas.
Los intereses de Wang también residen en la interacción entre humanos y computadoras. Ahora está investigando el uso de la tecnología para abordar problemas de salud mental y crear plataformas confiables para que los usuarios mejoren su bienestar mental.
"A medida que nos centramos en los seres humanos, realmente queremos saber si nuestro trabajo puede ayudarlos", afirmó.
Más información: Yixuan Zhang et al, Perfilando la dinámica de la confianza y la desconfianza en las redes sociales:un estudio de encuesta, Actas de la Conferencia CHI sobre factores humanos en los sistemas informáticos (2024). DOI:10.1145/3613904.3642927
Proporcionado por William y Mary