Homa Hosseinmardi, Ph.D. Crédito:Universidad de Pensilvania
A medida que los grupos extremistas y los movimientos marginales como QAnon han ganado conciencia general, su capacidad para propagar rápidamente información errónea y conspiraciones ha puesto a las plataformas de redes sociales bajo un mayor escrutinio público. Facebook, Twitter y otras empresas tecnológicas han sido reprendidas por el Congreso y los medios de comunicación por no abordar seriamente la radicalización en línea entre sus usuarios. A medida que Estados Unidos se ha vuelto cada vez más polarizado políticamente, la cuestión de si los algoritmos de estas plataformas (involuntariamente o por diseño) ayudan a los usuarios a descubrir contenido extremo y engañoso se ha vuelto más urgente.
Pero como señala Homa Hosseinmardi, Ph.D., sorprendentemente, una plataforma importante ha recibido menos atención:YouTube. Hosseinmardi, científico investigador sénior e investigador principal del proyecto PennMap del Laboratorio de Ciencias Sociales Computacionales (CSS) de la Universidad de Pensilvania, parte de la Escuela de Ingeniería y Ciencias Aplicadas, la Escuela de Comunicación Annenberg y la Escuela Wharton, señala que si bien es a menudo percibido como un canal de entretenimiento en lugar de una fuente de noticias, YouTube es quizás la plataforma de consumo de medios más grande del mundo.
"YouTube ha sido pasado por alto por los investigadores, porque no creíamos que fuera un lugar para las noticias", dijo. "Pero si miras la escala, tiene más de dos mil millones de usuarios. Si tomas esa población y la multiplicas por la fracción de contenido de noticias visto en YouTube, te das cuenta de que la cantidad de consumo de información en YouTube es mucho mayor que en Twitter".
La investigación de Hosseinmardi está impulsada por preguntas sobre el comportamiento humano, especialmente en los espacios en línea. Su doctorado la investigación abordó el acoso y la intimidación en línea, particularmente en Instagram y Askfm, una red social semi-anónima. Antes de llegar a Penn, fue asistente de investigación posdoctoral en el Instituto de Ciencias de la Información de la Universidad del Sur de California, donde estudió la personalidad, el desempeño laboral y la salud mental en entornos laborales utilizando las señales fisiológicas de los empleados, como los latidos del corazón y la respiración.
En 2019, se unió al CSSLab, dirigido por el profesor Duncan Watts de la Universidad de Stevens. En su trabajo con el Laboratorio, Hosseinmardi utiliza datos a gran escala y métodos computacionales para obtener información sobre temas que incluyen la polarización de los medios, el sesgo algorítmico y cómo las redes sociales afectan nuestras vidas.
Hace varios años, un equipo de investigadores que incluía a Hosseinmardi y Watts se interesó en la relación entre la radicalización en línea y el consumo de noticias en YouTube. ¿En qué medida los algoritmos de YouTube fomentan la interacción con contenido muy sesgado o radical, y en qué medida se ve influido por el comportamiento en línea de una persona?
"Todos hemos escuchado anécdotas sobre la radicalización de YouTube:una persona vio un video y terminó con una teoría de la conspiración", dice Hosseinmardi. "Nos dimos cuenta de que el público en general percibe esto como prueba de un problema sistemático con el algoritmo".
Su objetivo es responder a esta pregunta:si las personas comienzan desde algún lugar de YouTube, después de ver algunos videos de forma consecutiva, ¿acabarán en el mismo destino?
El equipo probó esta investigación mediante el estudio de los comportamientos de navegación individuales, en YouTube y en toda la web, de más de 300 000 estadounidenses desde enero de 2016 hasta diciembre de 2019. También obtuvieron datos demográficos de los usuarios, incluidos edad, género, raza, educación, ocupación, ingresos, e inclinación política, asegurando una muestra representativa de la población de EE. UU.
En agosto, publicaron sus resultados en Proceedings of the National Academy of Sciences , encontrando que la sabiduría convencional no siempre es correcta.
Los investigadores no observaron evidencia de que la participación de contenido de extrema derecha y "anti-despertar" sea sistemáticamente causada por las recomendaciones de YouTube. Más bien, refleja en gran medida las preferencias de los usuarios y el ecosistema de contenido en línea más amplio. Los consumidores de contenido de extrema derecha llegan a través de varias vías, como motores de búsqueda, otros sitios y videos vistos anteriormente.
Sin embargo, el hecho es que las personas continúan radicalizándose en línea. Como lo ven Hosseinmardi y otros expertos, la investigación continua y orientada a la solución es fundamental para abordar este problema. A principios de noviembre, el estudio relacionado de 2020 del equipo, "Evaluación de la escala, el crecimiento y los orígenes de las cámaras de eco de derecha en YouTube", fue citado en una audiencia del Comité de Seguridad Nacional y Asuntos Gubernamentales del Senado de EE. UU. que examinó el papel de las plataformas de redes sociales. en el auge del extremismo doméstico.
Hosseinmardi y sus colegas consideran que su trabajo en esta área está en continuo progreso. PennMAP, un proyecto de investigación interdisciplinario y no partidista dirigido por CSSLab, está creando tecnología para evaluar los patrones de desinformación y el sesgo de los medios en todo el espectro político, y para seguir cómo el consumo de información afecta las creencias individuales y colectivas. El equipo está creando una infraestructura de datos escalable para analizar decenas de terabytes de contenido de televisión, radio y web, además de estudiar paneles representativos de unos 500 000 consumidores de medios durante varios años. También están trabajando con investigadores del Instituto Federal Suizo de Tecnología para monitorear los efectos de los cambios en la política de YouTube y la eliminación de la plataforma en sus usuarios en la web y descubrir si el consumo extremo de contenido se reduce en consecuencia, o si los usuarios simplemente reemplazan YouTube con otra plataforma que aloja contenido similar.
Sin embargo, advierte Hosseinmardi, los problemas sociales no se pueden resolver solo mediante la reforma de políticas. En gran medida, las plataformas como YouTube reflejan el mundo fuera de línea. La desinformación es parte de un ciclo más amplio, en el que el contenido sesgado o engañoso puede deshumanizar a los grupos minoritarios y marginados, afectando los niveles de empatía de los demás hacia ellos en la vida "real". A medida que la información errónea continúa fluyendo, el odio y el acoso continúan propagándose, y los grupos afectados se vuelven cada vez más silenciosos.
En última instancia, enfatiza Hosseinmardi, es nuestra responsabilidad pensar críticamente sobre la información que consumimos y aceptamos como verdad.
“No puedo afirmar que ninguna plataforma tenga la culpa, pero no debemos olvidar nuestro papel como sociedad y que las personas con cierta apariencia, o personas de cierta raza o religión están siendo victimizadas”, dice. "Las plataformas son reflejos de grandes problemas en la sociedad por los que debemos preocuparnos más, en lugar de simplemente señalar con el dedo a las plataformas. Deberían hacer su parte, pero nosotros también deberíamos hacer nuestra parte".