Crédito:La conversación
Un informe interno de Facebook descubrió que los algoritmos de la plataforma de redes sociales (las reglas que siguen sus computadoras para decidir el contenido que ves) permitieron que las campañas de desinformación con base en Europa del Este llegaran a casi la mitad de todos los estadounidenses en el período previo a las elecciones presidenciales de 2020. según un informe de Technology Review.
Las campañas produjeron las páginas más populares de contenido cristiano y afroamericano, y en general alcanzó los 140 millones de usuarios estadounidenses por mes. El setenta y cinco por ciento de las personas expuestas al contenido no habían seguido ninguna de las páginas. La gente vio el contenido porque el sistema de recomendación de contenido de Facebook lo incluyó en sus fuentes de noticias.
Las plataformas de redes sociales dependen en gran medida del comportamiento de las personas para decidir el contenido que ves. En particular, buscan contenido al que las personas responden o con el que "interactúan" al gustar, comentar y compartir. Granjas de trolls, organizaciones que difunden contenido provocativo, Aproveche esto copiando contenido de alta participación y publíquelo como propio.
Como científico informático que estudia las formas en que un gran número de personas interactúa utilizando la tecnología, Entiendo la lógica de usar la sabiduría de las multitudes en estos algoritmos. También veo dificultades sustanciales en la forma en que las empresas de redes sociales lo hacen en la práctica.
En vísperas de las elecciones de 2020, las granjas de trolls estaban ejecutando vastas redes de páginas en Facebook dirigidas a Christian, Negro, &Nativos americanos. Un informe interno que rastreaba la situación lo describió como "realmente espantoso". Algunas de las páginas permanecen dos años después. https://t.co/Wa43f8rG0N
- Karen Hao (@_KarenHao) 17 de septiembre, 2021
De leones en la sabana a me gusta en Facebook
El concepto de sabiduría de las multitudes asume que el uso de señales de las acciones de otros, las opiniones y preferencias como guía conducirán a decisiones acertadas. Por ejemplo, Las predicciones colectivas son normalmente más precisas que las individuales. La inteligencia colectiva se utiliza para predecir los mercados financieros, Deportes, elecciones e incluso brotes de enfermedades.
A lo largo de millones de años de evolución, Estos principios se han codificado en el cerebro humano en forma de sesgos cognitivos que vienen con nombres como familiaridad, mera exposición y efecto de vagón. Si todo el mundo empieza a correr también deberías empezar a correr; tal vez alguien vio venir a un león y correr podría salvarle la vida. Puede que no sepas por qué pero es más prudente hacer preguntas más tarde.
Su cerebro capta pistas del entorno, incluidos sus compañeros, y usa reglas simples para traducir rápidamente esas señales en decisiones:vaya con el ganador, sigue a la mayoría, copia a tu vecino. Estas reglas funcionan muy bien en situaciones típicas porque se basan en suposiciones sólidas. Por ejemplo, suponen que la gente suele actuar de forma racional, es poco probable que muchos se equivoquen, el pasado predice el futuro, etcétera.
La tecnología permite que las personas accedan a señales de un número mucho mayor de personas, la mayoría de los cuales no conocen. Las aplicaciones de inteligencia artificial hacen un uso intensivo de estas señales de popularidad o "participación", desde seleccionar los resultados del motor de búsqueda hasta recomendar música y videos, y desde sugerir amigos hasta clasificar publicaciones en fuentes de noticias.
No todo lo viral merece ser
Nuestra investigación muestra que prácticamente todas las plataformas de tecnología web, como redes sociales y sistemas de recomendación de noticias, tienen un fuerte sesgo de popularidad. Cuando las aplicaciones están impulsadas por señales como la participación en lugar de consultas explícitas del motor de búsqueda, el sesgo de popularidad puede tener consecuencias no deseadas no deseadas.
Redes sociales como Facebook, Instagram Gorjeo, YouTube y TikTok dependen en gran medida de los algoritmos de inteligencia artificial para clasificar y recomendar contenido. Estos algoritmos toman como entrada lo que te gusta, comentar y compartir, en otras palabras, contenido con el que interactúa. El objetivo de los algoritmos es maximizar el compromiso descubriendo lo que le gusta a la gente y clasificándolo en la parte superior de sus feeds.
A primera vista, esto parece razonable. Si a la gente le gustan las noticias creíbles, opiniones de expertos y videos divertidos, estos algoritmos deberían identificar ese contenido de alta calidad. Pero la sabiduría de las multitudes hace una suposición clave aquí:que recomendar lo que es popular ayudará a que el contenido de alta calidad "burbujee".
Probamos esta suposición mediante el estudio de un algoritmo que clasifica los elementos utilizando una combinación de calidad y popularidad. Descubrimos que, en general, Es más probable que el sesgo de popularidad reduzca la calidad general del contenido. La razón es que el compromiso no es un indicador confiable de calidad cuando pocas personas han estado expuestas a un artículo. En estos casos, el compromiso genera una señal ruidosa, y es probable que el algoritmo amplifique este ruido inicial. Una vez que la popularidad de un artículo de baja calidad sea lo suficientemente grande, seguirá amplificándose.
Los algoritmos no son lo único que se ve afectado por el sesgo de participación, también pueden afectar a las personas. La evidencia muestra que la información se transmite a través de "contagio complejo, "lo que significa que cuantas más veces la gente esté expuesta a una idea en línea, es más probable que lo adopten y lo compartan. Cuando las redes sociales le dicen a las personas que un artículo se está volviendo viral, sus sesgos cognitivos entran en acción y se traducen en el impulso irresistible de prestarle atención y compartirlo.
Multitudes no tan sabias
Recientemente, realizamos un experimento con una aplicación de alfabetización informativa llamada Fakey. Es un juego desarrollado por nuestro laboratorio, que simula un servicio de noticias como los de Facebook y Twitter. Los jugadores ven una combinación de artículos actuales de noticias falsas, ciencia basura, fuentes hiperpartidistas y conspirativas, así como fuentes convencionales. Obtienen puntos por compartir o dar me gusta a noticias de fuentes confiables y por marcar artículos de baja credibilidad para verificar los hechos.
Descubrimos que es más probable que a los jugadores les guste o compartan y es menos probable que marquen artículos de fuentes de baja credibilidad cuando los jugadores pueden ver que muchos otros usuarios se han comprometido con esos artículos. La exposición a las métricas de participación crea una vulnerabilidad.
La sabiduría de las multitudes falla porque se basa en la falsa suposición de que la multitud está formada por diversos, fuentes independientes. Puede haber varias razones por las que este no es el caso.
Primero, debido a la tendencia de las personas a asociarse con personas similares, sus vecindarios en línea no son muy diversos. La facilidad con la que los usuarios de las redes sociales pueden dejar de ser amigos de aquellos con quienes no están de acuerdo empuja a las personas hacia comunidades homogéneas. a menudo denominadas cámaras de eco.
Segundo, porque los amigos de muchas personas son amigos entre sí, se influyen mutuamente. Un famoso experimento demostró que saber qué música les gusta a tus amigos afecta tus propias preferencias declaradas. Tu deseo social de conformarte distorsiona tu juicio independiente.
Tercera, las señales de popularidad se pueden jugar. A través de los años, Los motores de búsqueda han desarrollado técnicas sofisticadas para contrarrestar las llamadas "granjas de enlaces" y otros esquemas para manipular algoritmos de búsqueda. Plataformas de redes sociales, por otra parte, recién están comenzando a conocer sus propias vulnerabilidades.
Las personas que intentan manipular el mercado de la información han creado cuentas falsas, como trolls y robots sociales, y redes falsas organizadas. Han inundado la red para crear la apariencia de que una teoría de la conspiración o un candidato político es popular. engañando tanto a los algoritmos de la plataforma como a los sesgos cognitivos de las personas a la vez. Incluso han alterado la estructura de las redes sociales para crear ilusiones sobre las opiniones mayoritarias.
Reducir el compromiso
¿Qué hacer? Las plataformas tecnológicas están actualmente a la defensiva. Se están volviendo más agresivos durante las elecciones para eliminar cuentas falsas y desinformación dañina. Pero estos esfuerzos pueden ser similares a un juego de golpear un topo.
Una diferente, El enfoque preventivo sería agregar fricción. En otras palabras, para ralentizar el proceso de difusión de información. Los comportamientos de alta frecuencia, como el gusto automático y el intercambio, podrían verse inhibidos por las pruebas o tarifas de CAPTCHA. Esto no solo reduciría las oportunidades de manipulación, pero con menos información las personas podrían prestar más atención a lo que ven. Dejaría menos espacio para que el sesgo de participación afecte las decisiones de las personas.
También ayudaría si las empresas de redes sociales ajustaran sus algoritmos para depender menos del compromiso para determinar el contenido que le ofrecen. Quizás las revelaciones del conocimiento de Facebook sobre las granjas de trolls que explotan el compromiso proporcionen el ímpetu necesario.
Este artículo se ha vuelto a publicar de The Conversation con una licencia de Creative Commons. Lea el artículo original.