Para limitar la información errónea, algunas redes sociales han limitado la amplitud con la que los usuarios pueden compartir publicaciones. Crédito:Gerd Altmann a través de Pixabay
Controlar la difusión de información errónea en las plataformas de redes sociales ha estimulado conversaciones importantes sobre la censura y la libertad de expresión.
"Una suposición tácita ha sido que la censura, la verificación de hechos y la educación son las únicas herramientas para combatir la desinformación", dice el economista de la Universidad de Duke, David McAdams. En una nueva investigación publicada en la revista de Proceedings of the National Academy of Sciences , McAdams y sus colaboradores exploran formas de mejorar la calidad de la información que se comparte en las redes sin hacer que ninguna entidad sea responsable de vigilar el contenido y decidir qué es verdadero y falso.
El modelo sugiere que para reducir la difusión de información falsa, la red puede establecer límites sobre la amplitud con la que se comparten ciertos mensajes, y hacerlo de una manera que no sea demasiado restrictiva para los usuarios.
"Demostramos que los límites en la cantidad de veces que se pueden reenviar los mensajes (profundidad de la red) o la cantidad de otras personas a las que se pueden reenviar los mensajes (amplitud de la red) aumentan la cantidad relativa de mensajes verdaderos versus falsos que circulan en una red, independientemente de si los mensajes se distorsionan accidental o deliberadamente", dice McAdams.
"Por ejemplo, Twitter podría limitar la amplitud de compartir en su sitio limitando cuántas personas ven un retweet dado en sus feeds de Twitter", dice.
Tanto Facebook como WhatsApp, dos aplicaciones propiedad de la empresa matriz Meta que permiten a los usuarios enviarse mensajes entre sí, han utilizado métodos similares al modelo de los investigadores para limitar la difusión de información errónea.
En 2020, Facebook anunció límites sobre la cantidad de personas o grupos a los que los usuarios podían reenviar mensajes, con un límite de cinco, en parte para combatir la información errónea sobre COVID-19 y la votación. A principios de ese año, WhatsApp introdujo límites similares, prohibiendo a sus más de dos mil millones de usuarios reenviar mensajes a más de cinco personas a la vez, en parte debido a más de una docena de muertes que funcionarios públicos en India han relacionado con información falsa que se estaba difundiendo en la aplicación, anotaron los investigadores.
Este enfoque no elimina la desinformación, pero en ausencia de otros métodos, puede reducir la gravedad del problema hasta que se puedan desarrollar otras soluciones para abordar el núcleo del problema, dice McAdams.
"Cuando la información errónea se propaga a través de una red social, puede causar daño", dice McAdams, quien tiene nombramientos en la facultad del departamento de economía y la Escuela de Negocios Fuqua. "Algunas personas pueden comenzar a creer cosas que son falsas y que pueden dañarlas a ellas o a otros".
También puede hacer que algunas personas pierdan la confianza en la plataforma, lo que significa que es menos probable que crean o actúen sobre la información correcta que realmente podría ayudarlos a ellos o a otras personas, dice.
"Si limita el intercambio, también podría estar limitando la difusión de buena información, por lo que podría estar tirando al bebé con el agua del baño y eso realmente no lo ayuda", advierte McAdams. "Nuestro análisis explora cómo lograr ese equilibrio". WhatsApp endurece los límites para compartir para frenar la información errónea sobre el virus