• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • Cómo las noticias falsas se propagan como un virus real

    ¿Se puede detener la rápida proliferación de información falsa? Crédito:Sarah Rieke

    Cuando se trata de noticias falsas reales, el tipo de desinformación que Rusia desplegó durante las elecciones de 2016, "hacerse viral" no es solo una metáfora.

    Usando las herramientas para modelar la propagación de enfermedades infecciosas, Los investigadores de riesgo cibernético de Stanford Engineering están analizando la propagación de noticias falsas como si se tratara de una cepa de Ébola. "Queremos encontrar la forma más eficaz de cortar las cadenas de transmisión, corregir la información si es posible y educar a los objetivos más vulnerables, "dice Elisabeth Paté-Cornell, profesor de ciencias de la gestión e ingeniería. Se ha especializado durante mucho tiempo en análisis de riesgos y ciberseguridad y supervisa la investigación en colaboración con Travis I. Trammell, un candidato a doctorado en Stanford. Estos son algunos de los aprendizajes clave:

    ¿Cómo se replican las noticias falsas en las redes sociales?

    Los investigadores han adaptado un modelo para comprender las enfermedades que pueden infectar a una persona más de una vez. Analiza cuántas personas son "susceptibles" a la enfermedad, o en este caso, es probable que crea una noticia falsa. También analiza cuántos han estado expuestos a él, y cuántos están realmente "infectados" y creen la historia; y cuántas personas probablemente difundirán una noticia falsa.

    Al igual que un virus, Los investigadores dicen que, con el tiempo, estar expuesto a múltiples tipos de noticias falsas puede desgastar la resistencia de una persona y hacerla cada vez más susceptible. Cuantas más veces una persona esté expuesta a una noticia falsa, especialmente si proviene de una fuente influyente, más probabilidades hay de que se convenzan o se infectan.

    ¿Qué hace que se propague más rápido?

    La llamada "ley de poder" de las redes sociales, un patrón bien documentado en las redes sociales, sostiene que los mensajes se replican más rápidamente si están dirigidos a un número relativamente pequeño de personas influyentes con un gran número de seguidores.

    Los investigadores también están analizando la efectividad relativa de los trolls frente a los bots. Trammell dice bots, que son programas automatizados que se hacen pasar por personas, tienden a ser particularmente buenos para difundir un gran número de mensajes muy emocionales con poco contenido informativo. Piense aquí en un mensaje con la imagen de Hillary Clinton tras las rejas y las palabras "¡Enciérrala!" Ese tipo de mensaje se difundirá rápidamente dentro de las cámaras de eco pobladas por aquellos que ya están de acuerdo con el sentimiento básico. Los bots tienen un poder considerable para inflamar a las personas que ya tienen ideas afines, aunque pueden ser más fáciles de detectar y bloquear que los trolls.

    Por el contrario, Los trolls suelen ser personas reales que difunden historias y memes provocativos. Los trolls pueden convencer mejor a las personas que están menos convencidas y quieren más información.

    ¿Qué tipo de personas son más susceptibles?

    Paté-Cornell y Trammell dicen que hay pruebas considerables de que los ancianos, los jóvenes y los menos educados son particularmente susceptibles a las noticias falsas. Pero en el sentido más amplio son los partidarios de los extremos políticos, ya sea liberal o conservador, que son más propensos a creer una historia falsa en parte debido al sesgo de confirmación (la tendencia en todos nosotros a creer historias que refuerzan nuestras convicciones) y cuanto más fuertes son esas convicciones, cuanto más poderosamente siente la persona el tirón del sesgo de confirmación.

    ¿Es posible la inoculación?

    Paté-Cornell y Trammell dicen que, al igual que el crimen ordinario, la desinformación nunca desaparecerá. Pero al aprender cómo se propaga a través de las redes sociales, los investigadores dicen que es posible contraatacar. Las plataformas de redes sociales podrían ser mucho más rápidas para detectar contenido sospechoso. Luego podrían adjuntar advertencias, una forma de inoculación, o podrían poner más en cuarentena.

    El reto, ellos dicen, es que la protección tiene costos:costos financieros, así como una conveniencia reducida y limitaciones a la libertad de expresión. Paté-Cornell dice que los peligros de las noticias falsas deben analizarse como un riesgo de gestión estratégica similar a cómo hemos analizado tradicionalmente los riesgos que plantean los ciberataques destinados a deshabilitar la infraestructura crítica. "Es una cuestión de cómo podemos administrar mejor nuestros recursos para minimizar el riesgo, ", dice." ¿Cuánto estás dispuesto a gastar? y ¿qué nivel de riesgo estamos dispuestos a aceptar? "

    ¿Qué depara el futuro?

    Las noticias falsas ya son un problema de seguridad nacional. Pero Paté-Cornell y Trammell predicen que la inteligencia artificial acelerará las noticias falsas en los próximos años. La inteligencia artificial hará que sea mucho más fácil dirigirse a las personas con noticias falsas o videos muy falsos (videos que parecen reales pero que han sido fabricados en su totalidad o en parte) que están finamente adaptados a lo que un espectador susceptible probablemente acepte y tal vez difunda. La IA también podría facilitar la creación de ejércitos de bots más influyentes que parecen compartir el origen social de un objetivo. pueblo natal, intereses personales o creencias religiosas. Este tipo de hiper-focalización haría que los mensajes fueran mucho más persuasivos. La IA también muestra un gran potencial para contrarrestar este flagelo identificando contenido falso en todas sus formas, pero sólo el tiempo dirá quién prevalecerá en esta carrera armamentista de la nueva era.


    © Ciencia https://es.scienceaq.com