• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  •  science >> Ciencia >  >> Otro
    Es más probable que YouTube recomiende videos de fraude electoral a los usuarios que ya son escépticos sobre la legitimidad de las elecciones de 2020

    El eje Y indica la proporción de etiquetas humanas para los videos que refutan las afirmaciones de Trump (en azul), los que informan neutralmente sobre las afirmaciones de Trump (verde) y los que respaldan las afirmaciones de Trump (rojo). El eje x indica el valor θ para el tema #108. El número total de videos que caen en cada categoría se indica con el histograma en la parte superior de la gráfica. Crédito:Revista de confianza y seguridad en línea (2022). https://doi.org/10.54501/jots.v1i3.60

    YouTube era más propenso a recomendar videos sobre fraude electoral a usuarios que ya eran escépticos sobre la legitimidad de las elecciones presidenciales de EE. UU. de 2020, según muestra un nuevo estudio que examina el impacto de los algoritmos del sitio.

    Los resultados de la investigación, que se publican en el Journal of Online Trust and Safety , mostró que a los más escépticos sobre la legitimidad de las elecciones se les mostró tres veces más videos relacionados con el fraude electoral que a los participantes menos escépticos:aproximadamente 8 recomendaciones adicionales de aproximadamente 400 videos sugeridos a cada participante del estudio.

    Si bien la prevalencia general de este tipo de videos fue baja, los hallazgos exponen las consecuencias de un sistema de recomendación que brinda a los usuarios el contenido que desean. Para aquellos más preocupados por un posible fraude electoral, mostrarles contenido relacionado proporcionó un mecanismo por el cual la información errónea, la desinformación y las conspiraciones pueden llegar a quienes tienen más probabilidades de creerlas, observan los autores del estudio. Es importante destacar que estos patrones reflejan la influencia independiente del algoritmo sobre lo que se muestra a los usuarios reales mientras usan la plataforma.

    "Nuestros hallazgos revelan las consecuencias perjudiciales de los algoritmos de recomendación y ponen en duda la opinión de que los entornos de información en línea están determinados únicamente por la elección del usuario", dice James Bisbee, quien dirigió el estudio como investigador postdoctoral en el Centro de Medios Sociales y Política de la Universidad de Nueva York. (CSMaP).

    Casi dos años después de las elecciones presidenciales de 2020, un gran número de estadounidenses, en particular los republicanos, no creen en la legitimidad del resultado.

    "Aproximadamente el 70 % de los republicanos no ven a Biden como el ganador legítimo", a pesar de "múltiples recuentos y auditorías que confirmaron la victoria de Joe Biden", escribió PolitiFact del Poynter Institute a principios de este año.

    Si bien es bien sabido que las plataformas de redes sociales, como YouTube, dirigen el contenido a los usuarios en función de sus preferencias de búsqueda, es posible que las consecuencias de esta dinámica no se perciban por completo.

    En el estudio CSMaP, los investigadores tomaron muestras de más de 300 estadounidenses con cuentas de YouTube en noviembre y diciembre de 2020. Se preguntó a los sujetos qué tan preocupados estaban con una serie de aspectos del fraude electoral, incluido el conteo de boletas fraudulentas, el descarte de boletas válidas, la interferencia de gobiernos extranjeros y la votación de ciudadanos no estadounidenses, entre otras cuestiones.

    Luego se les pidió a estos participantes que instalaran una extensión de navegador que registraría la lista de recomendaciones que se les mostraba. Luego, se instruyó a los sujetos para que hicieran clic en un video de YouTube asignado al azar (el video "semilla"), y luego para hacer clic en una de las recomendaciones que se les mostró de acuerdo con una "regla transversal" asignada al azar. Por ejemplo, los usuarios asignados a la "segunda regla transversal" deberán hacer clic siempre en el segundo video de la lista de recomendaciones que se muestra, independientemente de su contenido. By restricting user behavior in these ways, the researchers were able to isolate the recommendation algorithm's influence on what real users were being suggested in real time.

    The subjects then proceeded through a sequence of YouTube recommended videos, allowing the researchers to observe what the YouTube algorithm suggested to its users. Bisbee and his colleagues then compared the number of videos about election fraud in the 2020 U.S. presidential election that were recommended to participants who were more skeptical about the legitimacy of the election to those recommended to participants who were less skeptical. These results showed that election skeptics were recommended an average of eight additional videos about possible fraud in the 2020 US election, relative to non-skeptical participants (12 vs. 4).

    "Many believe that automated recommendation algorithms have little influence on online 'echo chambers' in which users only see content that reaffirms their preexisting views," observes Bisbee, now an assistant professor at Vanderbilt University.

    "Our study, however, suggests that YouTube's recommendation algorithm was able to determine which users were more likely to be concerned about fraud in the 2020 U.S. presidential election and then suggested up to three times as many videos about election fraud to these users compared to those less concerned about election fraud. This highlights the need for further investigation into how opaque recommendation algorithms operate on an issue-by-issue basis." + Explora más

    YouTube to remove misleading videos about the outcome of the U.S. presidential election




    © Ciencia https://es.scienceaq.com