Crédito:Pixabay/CC0 Dominio público
Las redes sociales representan un canal importante para la difusión de noticias falsas y desinformación. Esta situación se ha agravado con los recientes avances en edición de fotos y videos y herramientas de inteligencia artificial, que facilitan la manipulación de archivos audiovisuales, por ejemplo con los llamados deepfakes, que combinan y superponen imágenes, audios y videoclips para crear montajes. que parecen imágenes reales.
Investigadores de los grupos K-riptography and Information Security for Open Networks (KISON) y Communication Networks &Social Change (CNSC) del Instituto Interdisciplinario de Internet (IN3) de la Universitat Oberta de Catalunya (UOC) han puesto en marcha un nuevo proyecto para desarrollar Tecnología innovadora que, utilizando inteligencia artificial y técnicas de ocultación de datos, debe ayudar a los usuarios a diferenciar automáticamente entre contenido multimedia original y adulterado, contribuyendo así a minimizar el reenvío de noticias falsas. DISSIMILAR es una iniciativa internacional liderada por la UOC en la que participan investigadores de la Universidad Tecnológica de Varsovia (Polonia) y la Universidad de Okayama (Japón).
"El proyecto tiene dos objetivos:primero, proporcionar a los creadores de contenido herramientas para marcar con agua sus creaciones, haciendo que cualquier modificación sea fácilmente detectable; y segundo, ofrecer a los usuarios de redes sociales herramientas basadas en procesamiento de señales de última generación y métodos de aprendizaje automático para detectar falsificaciones. contenidos digitales", explica el profesor David Megías, investigador principal de KISON y director del IN3. Además, DISSIMILAR pretende incluir “la dimensión cultural y el punto de vista del usuario final a lo largo de todo el proyecto”, desde el diseño de las herramientas hasta el estudio de la usabilidad en las diferentes etapas.
El peligro de los sesgos
Actualmente, existen básicamente dos tipos de herramientas para detectar noticias falsas. En primer lugar, están los automáticos basados en aprendizaje automático, de los cuales (actualmente) solo existen algunos prototipos. Y, en segundo lugar, están las plataformas de detección de noticias falsas con participación humana, como es el caso de Facebook y Twitter, que requieren la participación de personas para determinar si un contenido específico es genuino o falso. Según David Megías, esta solución centralizada podría verse afectada por "diferentes sesgos" y fomentar la censura. “Creemos que una evaluación objetiva basada en herramientas tecnológicas puede ser una mejor opción, siempre que los usuarios tengan la última palabra para decidir, en base a una evaluación previa, si pueden confiar en ciertos contenidos o no”, explicó.
Para Megías, no existe una "sola bala de plata" que pueda detectar noticias falsas:más bien, la detección debe llevarse a cabo con una combinación de diferentes herramientas. “Por eso hemos apostado por explorar la ocultación de información (marcas de agua), las técnicas de análisis forense de contenidos digitales (basadas en gran medida en el procesamiento de señales) y, por supuesto, el aprendizaje automático”, apunta.
Verificación automática de archivos multimedia
La marca de agua digital comprende una serie de técnicas en el campo de la ocultación de datos que incrustan información imperceptible en el archivo original para poder verificar "fácil y automáticamente" un archivo multimedia. "Puede usarse para indicar la legitimidad de un contenido, por ejemplo, confirmando que un video o una foto ha sido distribuido por una agencia de noticias oficial, y también puede usarse como una marca de autenticación, que se eliminaría en caso de modificación de el contenido, o para rastrear el origen de los datos. Es decir, puede saber si la fuente de la información (por ejemplo, una cuenta de Twitter) está difundiendo contenido falso”, explicó Megías.
Técnicas de análisis forense de contenido digital
El proyecto combinará el desarrollo de marcas de agua con la aplicación de técnicas de análisis forense de contenido digital. El objetivo es aprovechar la tecnología de procesamiento de señales para detectar las distorsiones intrínsecas que producen los dispositivos y programas utilizados al crear o modificar cualquier archivo audiovisual. Estos procesos dan lugar a una serie de alteraciones, como el ruido del sensor o la distorsión óptica, que podrían detectarse mediante modelos de aprendizaje automático. “La idea es que la combinación de todas estas herramientas mejore los resultados en comparación con el uso de soluciones únicas”, afirma Megías.
Estudios con usuarios de Cataluña, Polonia y Japón
Una de las características clave de DISSIMILAR es su enfoque "holístico" y su recopilación de las "percepciones y componentes culturales en torno a las noticias falsas". En este sentido, se realizarán diferentes estudios centrados en el usuario, desglosados en diferentes etapas. "En primer lugar, queremos saber cómo interactúan los usuarios con las noticias, qué les interesa, qué medios consumen, según sus intereses, qué usan como base para identificar ciertos contenidos como noticias falsas y qué están dispuestos a hacer para verificar su veracidad. Si podemos identificar estas cosas, será más fácil que las herramientas tecnológicas que diseñemos ayuden a prevenir la propagación de noticias falsas”, explicó Megías.
Estas percepciones se medirán en diferentes lugares y contextos culturales, en estudios de grupos de usuarios en Cataluña, Polonia y Japón, para incorporar su idiosincrasia en el diseño de las soluciones. “Esto es importante porque, por ejemplo, cada país tiene gobiernos y/o autoridades públicas con mayor o menor grado de credibilidad. Esto tiene un impacto en el seguimiento de las noticias y el apoyo a las fake news:si no creo en la palabra de las autoridades, ¿por qué debo prestar atención a las noticias que provienen de estas fuentes?Esto se pudo ver durante la crisis del COVID-19:en países en los que había menos confianza en las autoridades públicas, hubo menos respeto por las sugerencias y las reglas sobre el manejo de la pandemia y la vacunación”, dijo Andrea Rosales, investigadora del CNSC.
Un producto fácil de usar y comprender
En la etapa dos, los usuarios participarán en el diseño de la herramienta para "asegurar que el producto sea bien recibido, fácil de usar y comprensible", dijo Andrea Rosales. “Nos gustaría que se involucraran con nosotros durante todo el proceso hasta la producción del prototipo final, ya que esto nos ayudará a dar una mejor respuesta a sus necesidades y prioridades y hacer lo que otras soluciones no han sido capaces de hacer”, agregó David Megías.
Esta aceptación de los usuarios podría ser en el futuro un factor que lleve a las plataformas de redes sociales a incluir las soluciones desarrolladas en este proyecto. "Si nuestros experimentos dan sus frutos, sería fantástico que integraran estas tecnologías. Por el momento, estaríamos contentos con un prototipo funcional y una prueba de concepto que podría animar a las plataformas de redes sociales a incluir estas tecnologías en el futuro". ", concluyó David Megías.
La investigación anterior se publicó en el Número especial de ARES-Workshops 2021 .