Dumbfakes y deepfakes son videos editados o alterados. En los últimos años, la capacidad de producir y compartir estos videos ha aumentado exponencialmente debido, en parte, a la inteligencia artificial.
Estos videos falsos ya están presentes en la política canadiense y es aún más probable que se creen y difundan durante la actual campaña electoral de Canadá.
Los Dumbfakes son videos editados mediante técnicas tradicionales de edición de videos. Usan tecnología a la que se puede acceder fácilmente en la mayoría de las computadoras y teléfonos inteligentes. Los tontos políticos que ya aparecieron en el período previo a las elecciones incluyen un video que falsamente hizo que pareciera que el presidente brasileño Jair Bolsonaro rechazó al primer ministro Justin Trudeau en la Cumbre del G20 en Japón en junio de 2019.
En comparación, Los deepfakes suelen utilizar lo que se conoce como redes generativas de adversario, un tipo de aprendizaje automático, cambiar el rostro de un individuo por el cuerpo de otro o manipular los rasgos del rostro de alguien.
Los deepfakes también pueden incluir manipulación de audio mediante el uso de un actor de voz o tecnología de imitación de voz. La tecnología para crear deepfakes se ha extendido rápidamente, incluida una nueva aplicación china llamada Zao.
Un ejemplo de un deepfake es el video del líder del Partido Conservador Canadiense Andrew Scheer como el cómico Pee-wee Herman en un antiguo anuncio de servicio público sobre el crack:
Dumbfakes y deepfakes son únicos de otras formas de noticias falsas debido al uso de la manipulación de video. Ofrecen representaciones visuales de supuestos eventos, a diferencia de palabras o imágenes fijas, y, por lo tanto, están más cerca de cómo se experimentan los eventos. En efecto, Los estudios sobre videos manipulados han descubierto que son una herramienta eficaz para producir recuerdos falsos.
Si bien los medios de comunicación tradicionales han recogido dumbfakes y deepfakes, es más probable que se compartan en las redes sociales. Esto es preocupante porque las noticias falsas, noticias falsas específicamente políticas, se difunde exponencialmente más rápido y más lejos que las noticias precisas en Twitter.
Impacto en la elección
Mientras reflexionamos sobre el impacto que los dumbfakes y deepfakes podrían tener en las elecciones, Es importante tener en cuenta que no es probable que afecten a todas las personas por igual.
Es más probable que tengan un impacto en las personas que están marginadas y que ya enfrentan barreras para el compromiso político. Mujeres, por ejemplo, enfrentan barreras para postularse y permanecer en la política. Es probable que los deepfakes exacerben eso porque, desde sus inicios, deepfakes se han utilizado para abusar de las mujeres (por ejemplo, incorporar celebridades femeninas en películas pornográficas).
Por lo tanto, es esencial contar con una lente interseccional para comprender cómo los dumbfakes y deepfakes podrían afectar las elecciones.
Tres áreas en las que los dumbfakes y deepfakes tienen más probabilidades de tener un impacto son la representación política, participación, y discusión.
Representación
Si bien todos tienen derecho a postularse para un cargo, Los dumbfakes y deepfakes pueden dificultar que las personas lo hagan. Se podrían producir videos falsos para chantajear a los políticos para que no se presenten o para desacreditar sus campañas difundiendo información falsa.
Los candidatos políticos ahora deben reflexionar sobre si están preparados para la posibilidad de que los dumbfakes y deepfakes se dirijan a ellos cuando salgan a la luz pública, tanto en lo que respecta a la campaña como en la mayor cantidad de fotos y videos de ellos disponibles en línea que podrían usarse. para hacer dumbfakes y deepfakes.
Además, las campañas políticas pueden ser descarriladas por un video falso dañino.
Participación
Dumbfakes y deepfakes pueden usarse de manera más generalizada contra el público para silenciar a los ciudadanos.
Las organizaciones y activistas que están a la vista del público pueden ser un blanco especial debido a su presencia en línea. Los ciudadanos pueden ser silenciados mediante la publicación de un video falso dañino. Incluso la posibilidad de un video falso puede promover la autocensura política, especialmente para las personas que ya se enfrentan a la discriminación en línea (por ejemplo, tweets racistas).
Dumbfakes y deepfakes también pueden tener como objetivo desacreditar trabajos importantes que promueven la responsabilidad política al criticar al gobierno y las prácticas opresivas.
Discusión
Los videos falsos crean un ambiente de desconfianza que dificulta aún más la capacidad de los ciudadanos para operar sobre la base de información compartida. También podrían obstaculizar la discusión al jugar y agravar las tensiones sociales existentes a nivel nacional e internacional.
Hemos visto esto antes. Los esfuerzos de desinformación rusos durante las elecciones presidenciales estadounidenses de 2016 provocaron un conflicto en una serie de cuestiones, incluida la inmigración, control de armas y el movimiento Black Lives Matter.
Otro problema con los dumbfakes y deepfakes es que socavan la credibilidad de la evidencia de video en general, incluidos videos reales que pueden representar a políticos u otras personas involucradas en comportamientos comprometedores o moralmente reprobables.
Protegiendo la democracia canadiense
Medios legales para abordar los dumbfakes y deepfakes:leyes de infracción de derechos de autor y difamación, por ejemplo, actualmente se están explorando. También se está avanzando en la tecnología de detección.
Pero estos enfoques pueden no ser efectivos si se comparte oportunamente un dumbfake o un deepfake solo unos días antes de las elecciones. Por lo tanto, los ciudadanos canadienses deben asumir la responsabilidad de verificar la información y los videos, especialmente en época de elecciones.
Dumbfakes y deepfakes claramente han cambiado el medio del video. La mejor forma de protegerse contra la desinformación que difunden es siendo consciente de su existencia.
Este artículo se ha vuelto a publicar de The Conversation con una licencia de Creative Commons. Lea el artículo original.