No está del todo claro que, hasta la fecha, la desinformación haya influido en unas elecciones que, de otro modo, habrían ido por otro camino. Pero, aun así, existe una fuerte sensación de que ha tenido un impacto significativo.
Ahora que la IA se utiliza para crear videos falsos altamente creíbles y difundir desinformación de manera más eficiente, tenemos razón al preocuparnos de que las noticias falsas puedan cambiar el curso de una elección en un futuro no muy lejano.
Para evaluar la amenaza y responder adecuadamente, necesitamos tener una mejor idea de cuán dañino podría ser el problema. En las ciencias físicas o biológicas, probaríamos una hipótesis de esta naturaleza repitiendo un experimento muchas veces.
Pero esto es mucho más difícil en las ciencias sociales porque muchas veces no es posible repetir experimentos. Si desea conocer el impacto de una determinada estrategia, por ejemplo, en una próxima elección, no puede repetir la elección un millón de veces para comparar lo que sucede cuando la estrategia se implementa y cuando no se implementa.
Se podría llamar a esto un problema de una sola historia:sólo hay una historia a seguir. No se puede dar cuerda al reloj para estudiar los efectos de los escenarios contrafácticos.
Para superar esta dificultad, resulta útil un modelo generativo porque puede crear muchas historias. Un modelo generativo es un modelo matemático para la causa raíz de un evento observado, junto con un principio rector que indica de qué manera la causa (entrada) se convierte en un evento observado (salida).
Al modelar la causa y aplicar el principio, se pueden generar muchas historias y, por tanto, las estadísticas necesarias para estudiar diferentes escenarios. Esto, a su vez, puede utilizarse para evaluar los efectos de la desinformación en las elecciones.
En el caso de una campaña electoral, la causa principal es la información accesible a los votantes (input), que se transforma en movimientos de las encuestas de opinión que muestran cambios en la intención de los votantes (output observado). El principio rector se refiere a cómo las personas procesan la información, es decir, minimizar las incertidumbres.
Entonces, al modelar cómo los votantes obtienen información, podemos simular desarrollos posteriores en una computadora. En otras palabras, podemos crear en un ordenador una "posible historia" de cómo cambian las encuestas de opinión desde ahora hasta el día de las elecciones. De una sola historia no aprendemos prácticamente nada, pero ahora podemos ejecutar la simulación (la elección virtual) un millón de veces.
Un modelo generativo no predice ningún evento futuro debido a la naturaleza ruidosa de la información. Pero sí proporciona estadísticas de diferentes eventos, que es lo que necesitamos.
La idea de utilizar un modelo generativo para estudiar el impacto de la desinformación se me ocurrió por primera vez hace aproximadamente una década, sin anticipar que el concepto, lamentablemente, se volvería tan relevante para la seguridad de los procesos democráticos. Mis modelos iniciales fueron diseñados para estudiar el impacto de la desinformación en los mercados financieros, pero cuando las noticias falsas comenzaron a convertirse en un problema mayor, mi colega y yo ampliamos el modelo para estudiar su impacto en las elecciones.
Los modelos generativos pueden indicarnos la probabilidad de que un candidato determinado gane una elección futura, sujeto a los datos actuales y a la especificación de cómo se comunica a los votantes la información sobre temas relevantes para la elección. Esto se puede utilizar para analizar cómo se verá afectada la probabilidad de ganar si los candidatos o partidos políticos cambian sus posiciones políticas o estrategias de comunicación.
Podemos incluir desinformación en el modelo para estudiar cómo eso alterará las estadísticas de resultados. Aquí, la desinformación se define como un componente oculto de la información que genera un sesgo.
Al incluir desinformación en el modelo y ejecutar una simulación, el resultado nos dice muy poco sobre cómo cambió las encuestas de opinión. Pero al ejecutar la simulación muchas veces, podemos usar las estadísticas para determinar el cambio porcentual en la probabilidad de que un candidato gane una elección futura si hay desinformación de una magnitud y frecuencia determinadas. En otras palabras, ahora podemos medir el impacto de las noticias falsas mediante simulaciones por ordenador.
Debo enfatizar que medir el impacto de las noticias falsas es diferente a hacer predicciones sobre los resultados electorales. Estos modelos no están diseñados para hacer predicciones. Más bien, proporcionan estadísticas suficientes para estimar el impacto de la desinformación.
Un modelo de desinformación que consideramos es un tipo que se publica en algún momento aleatorio, crece en fuerza durante un corto período pero luego se amortigua (por ejemplo, debido a la verificación de hechos). Descubrimos que una sola publicación de este tipo de desinformación, mucho antes del día de las elecciones, tendrá poco impacto en el resultado electoral.
Sin embargo, si la publicación de dicha desinformación se repite de manera persistente, tendrá un impacto. La desinformación que está sesgada hacia un candidato determinado cambiará ligeramente la encuesta a favor de ese candidato cada vez que se publique. De todas las simulaciones electorales en las que ese candidato ha perdido, podemos identificar en cuántas de ellas el resultado ha cambiado, en función de una determinada frecuencia y magnitud de desinformación.
Las noticias falsas a favor de un candidato, salvo en raras circunstancias, no garantizarán la victoria de ese candidato. Sin embargo, sus impactos pueden medirse en términos de probabilidades y estadísticas. ¿Cuánto han cambiado las noticias falsas la probabilidad de ganar? ¿Cuál es la probabilidad de cambiar el resultado de una elección? Y así sucesivamente.
Un resultado que sorprendió es que incluso si los electores no saben si una determinada información es verdadera o falsa, si conocen la frecuencia y el sesgo de la desinformación, esto será suficiente para eliminar la mayor parte del impacto de la desinformación. El mero conocimiento de la posibilidad de que existan noticias falsas ya es un poderoso antídoto contra sus efectos.
Los modelos generativos por sí solos no ofrecen contramedidas a la desinformación. Simplemente nos dan una idea de la magnitud de los impactos. La verificación de hechos puede ayudar, pero no es muy efectiva (el genio ya está fuera de la botella). ¿Pero qué pasa si los dos se combinan?
Dado que el impacto de la desinformación se puede evitar en gran medida informando a la gente de que está sucediendo, sería útil que los verificadores de datos ofrecieran información sobre las estadísticas de desinformación que han identificado; por ejemplo, "X% de las afirmaciones negativas contra el candidato A fueron falsas". ". Un electorado equipado con esta información se verá menos afectado por la desinformación.
Proporcionado por The Conversation
Este artículo se vuelve a publicar desde The Conversation bajo una licencia Creative Commons. Lea el artículo original.