• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  •  science >> Ciencia >  >> Otro
    YouTube:cómo un equipo de científicos trabajó para vacunar a un millón de usuarios contra la desinformación

    Capturas de pantalla de uno de los videos.

    Desde la pandemia de COVID-19 hasta la guerra en Ucrania, la desinformación abunda en todo el mundo. Se han diseñado muchas herramientas para ayudar a las personas a detectar información errónea. El problema con la mayoría de ellos es lo difícil que es entregarlos a escala.

    Pero es posible que hayamos encontrado una solución. En nuestro nuevo estudio, diseñamos y probamos cinco videos cortos que "previenen" a los espectadores, para inocularlos de las técnicas engañosas y manipuladoras que a menudo se usan en línea para engañar a las personas. Nuestro estudio es el más grande de su tipo y el primero en probar este tipo de intervención en YouTube. A cinco millones de personas se les mostraron los videos, de los cuales un millón los vio.

    Descubrimos que estos videos no solo ayudan a las personas a detectar información errónea en experimentos controlados, sino también en el mundo real. Ver uno de nuestros videos a través de un anuncio de YouTube aumentó la capacidad de los usuarios de YouTube para reconocer información errónea.

    A diferencia del desmentido previo, el desmentido (o la verificación de hechos) de la información errónea tiene varios problemas. A menudo es difícil establecer cuál es la verdad. Con frecuencia, las verificaciones de hechos tampoco llegan a las personas que tienen más probabilidades de creer en la información errónea, y lograr que las personas acepten las verificaciones de hechos puede ser un desafío, especialmente si las personas tienen una fuerte identidad política.

    Los estudios muestran que la publicación de verificaciones de hechos en línea no revierte completamente los efectos de la desinformación, un fenómeno conocido como el efecto de influencia continua. Hasta ahora, los investigadores se han esforzado por encontrar una solución que pueda llegar rápidamente a millones de personas.

    La gran idea

    La teoría de la inoculación es la noción de que puedes forjar una resistencia psicológica contra los intentos de manipularte, al igual que una vacuna médica es una versión debilitada de un patógeno que incita a tu sistema inmunológico a crear anticuerpos. Las intervenciones de prebunking se basan principalmente en esta teoría.

    La mayoría de los modelos se han centrado en contrarrestar ejemplos individuales de información errónea, como publicaciones sobre el cambio climático. Sin embargo, en los últimos años, los investigadores, incluidos nosotros mismos, han explorado formas de inocular a las personas contra las técnicas y los tropos que subyacen en gran parte de la información errónea que vemos en línea. Dichas técnicas incluyen el uso de lenguaje emotivo para provocar indignación y miedo, o convertir a personas y grupos en chivos expiatorios por un problema sobre el que tienen poco o ningún control.

    Los juegos en línea como Cranky Uncle y Bad News estuvieron entre los primeros intentos de probar este método de prebunking. Hay varias ventajas de este enfoque. No tiene que actuar como árbitro de la verdad, ya que no tiene que verificar las afirmaciones específicas que ve en línea. Le permite eludir debates emotivos sobre la credibilidad de las fuentes de noticias. Y quizás lo más importante, no necesita saber qué información errónea se volverá viral a continuación.

    Un enfoque escalable

    Pero no todos tienen el tiempo o la motivación para jugar, por lo que colaboramos con Jigsaw (la unidad de investigación de Google) en una solución para llegar a más personas. Nuestro equipo desarrolló cinco videos de prebunking, cada uno con una duración de menos de dos minutos, cuyo objetivo era inmunizar a los espectadores contra una técnica de manipulación diferente o una falacia lógica. Como parte del proyecto, lanzamos un sitio web donde las personas pueden ver y descargar estos videos.

    Primero probamos su impacto en el laboratorio. Realizamos seis experimentos (con alrededor de 6400 participantes en total) en los que las personas vieron uno de nuestros videos o un video de control no relacionado sobre quemaduras por congelación. Luego, dentro de las 24 horas posteriores a la visualización del video, se les pidió que evaluaran una serie de ejemplos de contenido de redes sociales (no publicados) que hacían o no uso de técnicas de desinformación. Descubrimos que las personas que vieron nuestros videos de prebunking eran significativamente menos propensas a la manipulación que los participantes de control.

    Pero los hallazgos de los estudios de laboratorio no necesariamente se traducen al mundo real. Así que también realizamos un estudio de campo en YouTube, el segundo sitio web más visitado del mundo (propiedad de Google), para probar la efectividad de las intervenciones de video allí.

    Un ejemplo de una publicación en las redes sociales (que usamos como uno de los estímulos en nuestro estudio) que hace uso de una falsa dicotomía (o falso dilema), una técnica de manipulación de uso común.

    Para este estudio, nos enfocamos en los usuarios de YouTube de EE. UU. mayores de 18 años que previamente habían visto contenido político en la plataforma. Ejecutamos una campaña publicitaria con dos de nuestros videos, mostrándoselos a alrededor de 1 millón de usuarios de YouTube. A continuación, usamos la herramienta de interacción BrandLift de YouTube para pedirles a las personas que vieron un video preliminar que respondieran una pregunta de opción múltiple. La pregunta evaluó su capacidad para identificar una técnica de manipulación en un titular de noticias. También tuvimos un grupo de control, que respondió la misma pregunta de la encuesta pero no vio el video de prebunking. Descubrimos que el grupo de prebunking fue un 5-10 % mejor que el grupo de control para identificar correctamente la información errónea, lo que demuestra que este enfoque mejora la resiliencia incluso en un entorno de distracción como YouTube.

    Nuestros videos costarían menos de 4 peniques por visualización de video (esto cubriría las tarifas de publicidad de YouTube). Como resultado de este estudio, Google lanzará una campaña publicitaria con videos similares en septiembre de 2022. Esta campaña se realizará en Polonia y la República Checa para contrarrestar la desinformación sobre los refugiados en el contexto de la guerra entre Rusia y Ucrania.

    Cuando intenta desarrollar resiliencia, es útil evitar ser demasiado directo al decirle a la gente qué creer, porque eso podría desencadenar algo llamado reactancia psicológica. La reactancia significa que las personas sienten que su libertad para tomar decisiones está siendo amenazada, lo que hace que se obstinen y rechacen nueva información. La teoría de la inoculación se trata de empoderar a las personas para que tomen sus propias decisiones sobre qué creer.

    A veces, la difusión de teorías de conspiración e información falsa en línea puede ser abrumadora. Pero nuestro estudio ha demostrado que es posible cambiar el rumbo. Cuanto más trabajen las plataformas de redes sociales junto con científicos independientes para diseñar, probar e implementar soluciones escalables basadas en evidencia, mayores serán nuestras posibilidades de hacer que la sociedad sea inmune a la avalancha de información errónea. + Explora más

    Experimento en YouTube revela potencial para 'inocular' a millones de usuarios contra la desinformación

    Este artículo se vuelve a publicar de The Conversation bajo una licencia Creative Commons. Lea el artículo original.




    © Ciencia https://es.scienceaq.com