Diagrama de redes sociales. Crédito:Daniel Tenerife / Wikipedia
Los usuarios excluidos de las plataformas sociales van a otros lugares con mayor toxicidad, según un nuevo estudio con investigadores de la Universidad de Binghamton, Universidad Estatal de Nueva York.
Cuando las personas actúan como idiotas en las redes sociales, una respuesta permanente es prohibirles que publiquen de nuevo. Quita el megáfono digital, dice la teoría, y los mensajes hirientes o deshonestos de esos alborotadores ya no publicarán un problema allí.
¿Qué pasa después de eso? ¿aunque? ¿A dónde van los que han sido 'desarraigados'? y ¿cómo afectará a su comportamiento en el futuro?
Un equipo internacional de investigadores, incluido el profesor adjunto Jeremy Blackburn y Ph.D. La candidata Esraa Aldreabi del Departamento de Ciencias de la Computación de la Facultad de Ingeniería y Ciencias Aplicadas Thomas J. Watson explora esas preguntas en un nuevo estudio llamado "Comprensión del efecto de la demolición en las redes sociales".
La investigación realizada por colaboradores de iDRAMA Lab en la Universidad de Binghamton, Universidad de Boston, University College London y el Instituto Max Planck de Informática en Alemania se presentó en junio en el Conferencia 2021 ACM Web Science .
Los investigadores desarrollaron un método para identificar cuentas pertenecientes a la misma persona en diferentes plataformas y encontraron que la prohibición en Reddit o Twitter llevó a esos usuarios a unirse a plataformas alternativas como Gab o Parler, donde la moderación del contenido es más laxa.
También entre los hallazgos está que, aunque los usuarios que se trasladan a esas plataformas más pequeñas tienen una audiencia potencialmente reducida, exhiben un mayor nivel de actividad y toxicidad que antes.
"No puedes simplemente prohibir a estas personas y decir:'Oye, funcionó.' No desaparecen ", Dijo Blackburn." Se van a otros lugares. Tiene un efecto positivo en la plataforma original, pero también hay cierto grado de amplificación o empeoramiento de este tipo de comportamiento en otros lugares ".
El estudio de eliminación de plataformas recopiló 29 millones de publicaciones de Gab, que se lanzó en 2016 y actualmente tiene alrededor de 4 millones de usuarios. Gab es conocido por su base de neonazis de extrema derecha, nacionalistas blancos, antisemitas y teóricos de la conspiración QAnon.
Usando una combinación de aprendizaje automático y etiquetado humano, Los investigadores hicieron referencias cruzadas de nombres de perfil y contenido con usuarios que habían estado activos en Twitter y Reddit pero fueron suspendidos. Muchos de los que están destituidos reutilizan el mismo nombre de perfil o información de usuario en una plataforma diferente para dar continuidad y reconocimiento a sus seguidores.
"Solo porque dos personas tienen el mismo nombre o nombre de usuario, eso no es una garantía, ", Dijo Blackburn." Hubo un proceso bastante grande para crear un conjunto de datos de 'verdad fundamental', donde teníamos una palabra humana, "Tienen que ser las mismas personas por esta razón y esa razón". Eso nos permite escalar las cosas lanzándolas a un clasificador [programa] de aprendizaje automático que aprenderá las características a tener en cuenta ".
El proceso no fue diferente a cómo los académicos determinan la identidad de los autores de obras no atribuidas o seudónimas, comprobando el estilo, sintaxis y tema, añadió.
En el conjunto de datos analizado para este estudio, aproximadamente el 59% de los usuarios de Twitter (1, 152 de 1, 961) creó cuentas de Gab después de su último tiempo activo en Twitter, presumiblemente después de que se suspendiera su cuenta. Para Reddit, alrededor del 76% (3, 958 de 5, 216) de los usuarios suspendidos crearon cuentas de Gab después de su última publicación en Reddit.
Comparando contenido de los mismos usuarios en Twitter y Reddit versus Gab, los usuarios tienden a volverse más tóxicos cuando están suspendidos de una plataforma y se ven obligados a trasladarse a otra plataforma. También se vuelven más activos, aumentando la frecuencia de publicaciones.
Al mismo tiempo, la audiencia del contenido de los usuarios de Gab se ve limitada por el tamaño reducido de la plataforma en comparación con los millones de usuarios en Twitter y Reddit. Esto podría verse como algo bueno, pero Blackburn advirtió que gran parte de la planificación para el ataque del 6 de enero al Capitolio de los Estados Unidos ocurrió en Parler, una plataforma similar a Gab con una base de usuarios más pequeña que se inclina hacia la derecha y la extrema derecha.
"Reducir el alcance probablemente sea algo bueno, pero el alcance puede malinterpretarse fácilmente. Solo porque alguien tiene 100, 000 seguidores no significa que todos sean seguidores en el mundo real, " él dijo.
"El grupo hardcore, tal vez el grupo que más nos preocupa, son los que probablemente se quedan con alguien si se mudan a otro lugar en línea. Si al reducir ese alcance, aumenta la intensidad a la que están expuestas las personas que se quedan, es como un tipo de pregunta de calidad versus cantidad. ¿Es peor que más personas vean estas cosas? ¿O es peor que se produzcan cosas más extremas para menos personas? "
Un estudio separado, "Un gran conjunto de datos abiertos de la red social Parler, "también incluyó a Blackburn entre los investigadores de la Universidad de Nueva York, la Universidad de Illinois, University College de Londres, Universidad de Boston y el Instituto Max Planck.
Presentado en la Conferencia AAAI sobre Web y Redes Sociales el mes pasado, analizó 183 millones de publicaciones de Parler realizadas por 4 millones de usuarios entre agosto de 2018 y enero de 2021, así como metadatos de 13,25 millones de perfiles de usuario. Los datos confirman que los usuarios de Parler, que cerró brevemente y fue retirado de las tiendas de aplicaciones de Apple y Google en respuesta a los disturbios del Capitolio, apoyaron abrumadoramente al presidente Donald Trump y su agenda "Make America Great Again".
"Independientemente de lo que haya dicho Parler, públicamente o no, era muy claramente blanco, ala derecha, Partidarios cristianos de Trump, ", Dijo Blackburn." De nuevo, como era de esperar, obtuvo su mayor impulso justo en las elecciones de 2020:hasta un millón de usuarios se unieron. Luego, alrededor del ataque al Capitolio, hubo otro gran aumento en los usuarios. Lo que podemos ver es que se estaba utilizando muy claramente como una herramienta de organización para la insurrección ".
Entonces, si prohibir a los usuarios no es la respuesta correcta, ¿que es? Administradores de Reddit, por ejemplo, tienen una capacidad de "prohibición en la sombra" que permite a los usuarios problemáticos pensar que todavía están publicando en el sitio, excepto que nadie más puede verlos. Durante las elecciones de 2020 y la pandemia de COVID-19, Twitter agregó etiquetas de moderación de contenido a los tweets que difundían deliberadamente desinformación.
Blackburn no está seguro de todas las herramientas de moderación que tienen disponibles las plataformas de redes sociales. pero cree que es necesario que haya más "soluciones socio-técnicas a los problemas socio-técnicos" en lugar de una simple prohibición.
"La sociedad ahora está diciendo con bastante firmeza que no podemos ignorar estas cosas, ya no podemos simplemente usar las salidas fáciles, ", dijo." Tenemos que proponer algunas ideas más creativas para no deshacernos de la gente, pero, con suerte, empujarlos en una dirección positiva o al menos asegurarse de que todos sepan quién es esa persona. En algún lugar entre el acceso sin restricciones y la prohibición de todos es probablemente la solución correcta ".