Crédito:Unsplash / CC0 Public Domain
Ni la desinformación ni la intimidación de los votantes son nada nuevo. Pero las herramientas desarrolladas por empresas tecnológicas líderes como Twitter, Facebook y Google ahora permiten que estas tácticas se amplíen drásticamente.
Como estudioso de ciberseguridad y seguridad electoral, He sostenido que estas empresas deben hacer más para frenar la desinformación, represión digital y supresión de votantes en sus plataformas, incluso tratando estos temas como una cuestión de responsabilidad social empresarial.
A principios de este otoño, Twitter anunció nuevas medidas para abordar la desinformación, incluyendo afirmaciones falsas sobre los riesgos de votar por correo. Facebook también ha prometido tomar medidas enérgicas contra la desinformación y la intimidación de votantes en su plataforma, incluso mediante la eliminación de publicaciones que animen a las personas a controlar los lugares de votación.
Google ha eliminado el dominio Proud Boys que supuestamente Irán usó para enviar mensajes a unos 25, 000 demócratas registrados que los amenazaron si no cambiaban de partido y votaban por Trump.
Pero tal autorregulación, si bien es útil, sólo puede llegar hasta cierto punto. Ha llegado el momento de que EE. UU. Aprenda de las experiencias de otras naciones y responsabilice a las empresas de tecnología de garantizar que sus plataformas no se utilicen indebidamente para socavar los cimientos democráticos del país.
Intimidación de votantes
El 20 de octubre demócratas registrados en Florida, un estado de swing crucial, y Alaska comenzó a recibir correos electrónicos supuestamente del grupo de extrema derecha Proud Boys. Los mensajes estaban llenos de amenazas que incluían represalias violentas si el receptor no votaba por el presidente Trump y cambiaba la afiliación de su partido a republicano.
Menos de 24 horas después, el 21 de octubre El director de Inteligencia Nacional de Estados Unidos, John Ratcliffe, y el director del FBI, Christopher Wray, dieron una sesión informativa en la que atribuyeron públicamente este intento de intimidación a los votantes a Irán. Este veredicto fue posteriormente corroborado por Google, que también ha afirmado que más del 90% de estos mensajes fueron bloqueados por filtros de spam.
Según los informes, el rápido momento de la atribución fue el resultado de la naturaleza extranjera de la amenaza y el hecho de que se acercaba tanto al día de las elecciones. Pero es importante señalar que este es solo el último ejemplo de tal intimidación a los votantes. Otros incidentes recientes incluyen un esquema de llamadas automáticas dirigido principalmente a ciudades afroamericanas como Detroit y Cleveland.
No está claro cuántos de estos mensajes llegaron realmente a los votantes y cómo, a su vez, estas amenazas cambiaron el comportamiento de los votantes. Existe alguna evidencia de que tales tácticas pueden ser contraproducentes y conducir a mayores tasas de participación en la población objetivo.
Desinformación en redes sociales
Las campañas de desinformación eficaces suelen tener tres componentes:
Un medio de noticias patrocinado por el estado para originar la fabricación. Fuentes de medios alternativos que estén dispuestos a difundir la desinformación sin verificar adecuadamente los hechos subyacentes. personas para avanzar la historia en otros medios
La llegada del ciberespacio ha acelerado el proceso de desinformación, tanto acelerando la propagación viral de historias a través de las fronteras nacionales y plataformas con facilidad como provocando una proliferación en los tipos de medios tradicionales y sociales dispuestos a correr con historias falsas.
Hasta la fecha, Las principales empresas de redes sociales han adoptado un enfoque fragmentado y fragmentado para gestionar este complejo problema. Twitter anunció la prohibición de anuncios políticos durante la temporada electoral de EE. UU. De 2020, en parte por preocupaciones sobre permitir la difusión de información errónea. Facebook optó por una prohibición más limitada de nuevos anuncios políticos una semana antes de las elecciones.
Estados Unidos no tiene equivalente a la ley francesa que prohíba cualquier discurso influyente el día antes de las elecciones.
Efectos y limitaciones
Los impactos de estos esfuerzos se han silenciado, en parte debido a la prevalencia de bots sociales que difunden información de baja credibilidad de forma viral a través de estas plataformas. No existen datos completos sobre la cantidad total de desinformación o cómo está afectando a los usuarios.
Algunos estudios recientes arrojan luz, aunque. Por ejemplo, Un estudio de 2019 encontró que un número muy pequeño de usuarios de Twitter representaba la gran mayoría de la exposición a la desinformación.
Varias fuerzas impiden que las plataformas tecnológicas hagan más. Estos incluyen el miedo al sesgo político percibido y una fuerte creencia entre muchos, incluido Mark Zuckerberg, en una interpretación robusta de la libertad de expresión. Una preocupación relacionada de las empresas de plataformas es que cuanto más se les percibe como guardianes de los medios, mayor será la probabilidad de que se enfrenten a una nueva regulación.
Las empresas de la plataforma también están limitadas por las tecnologías y los procedimientos que utilizan para combatir la desinformación y la intimidación de los votantes. Por ejemplo, Según los informes, el personal de Facebook tuvo que intervenir manualmente para limitar la difusión de un artículo del New York Post sobre la computadora portátil de Hunter Biden que podría ser parte de una campaña de desinformación. Esto destaca cómo las empresas de la plataforma se están poniendo al día para contrarrestar la desinformación y necesitan dedicar más recursos al esfuerzo.
Opciones regulatorias
Existe un consenso bipartidista cada vez mayor de que se debe hacer más para controlar los excesos de las redes sociales y gestionar mejor los problemas duales de la intimidación y la desinformación de los votantes. En semanas recientes, ya hemos visto al Departamento de Justicia de EE. UU. abrir un nuevo caso antimonopolio contra Google, cuales, aunque no está relacionado con la desinformación, puede entenderse como parte de una campaña más amplia para regular estos gigantes.
Otra herramienta a disposición del gobierno de EE. UU. Está revisando, o incluso revocar, Sección 230 de la Ley de Decencia en las Comunicaciones de la década de 1990. Esta ley fue diseñada para proteger a las empresas de tecnología a medida que se desarrollaban de la responsabilidad por el contenido que los usuarios publican en sus sitios. Muchos, incluido el exvicepresidente Joe Biden, argumentan que ha sobrevivido a su utilidad.
Otra opción a considerar es aprender del enfoque de la UE. En 2018, la Comisión Europea logró que las empresas de tecnología adoptaran el "Código de prácticas sobre desinformación, "que comprometió a estas empresas a impulsar" la transparencia en torno a la publicidad política y basada en temas ". estas medidas para combatir la desinformación, y el correspondiente sistema de alerta rápida de la UE, hasta ahora no han podido detener la marea de estas amenazas.
En lugar de, hay cada vez más llamamientos para aprobar una serie de reformas para garantizar que las plataformas publiquen información precisa, proteger las fuentes de información precisa a través de requisitos de ciberseguridad mejorados y monitorear la desinformación de manera más efectiva. Las empresas de tecnología, en particular, podrían estar haciendo más para facilitar la denuncia de desinformación, contactar a los usuarios que han interactuado con dicho contenido con una advertencia y anotar información falsa sobre la votación, como han comenzado a hacer Facebook y Twitter.
Estos pasos son solo el comienzo. Todo el mundo tiene un papel en hacer que la democracia sea más difícil de piratear, pero las plataformas tecnológicas que han contribuido tanto a resolver este problema tienen la enorme obligación de abordarlo.
Este artículo se vuelve a publicar de The Conversation con una licencia de Creative Commons. Lea el artículo original.