Los grandes cambios de un fotograma al siguiente pueden indicar problemas. Crédito:Jesse Milan / Flickr, CC BY
Solía ser que solo las compañías de producción de Hollywood con bolsillos profundos y equipos de artistas y técnicos calificados podían hacer videos deepfake, Fabricaciones realistas que parecen mostrar a las personas haciendo y diciendo cosas que en realidad nunca hicieron o dijeron. Ya no:el software disponible gratuitamente en línea permite a cualquier persona con una computadora y algo de tiempo libre crear videos falsos convincentes.
Ya sea que se use para venganza personal, para acosar a celebridades o para influir en la opinión pública, Los deepfakes hacen falso el antiguo axioma de que "ver para creer".
Mi equipo de investigación y yo del Instituto de Ciencias de la Información de la Universidad del Sur de California estamos desarrollando formas de diferenciar entre falsificaciones de apariencia realista y videos genuinos que muestran eventos reales a medida que ocurrieron. Nuestra investigación reciente ha encontrado una forma nueva y aparentemente más precisa de detectar videos deepfake.
Encontrar los defectos
Generalmente hablando, varios algoritmos deepfake funcionan mediante el uso de técnicas de aprendizaje automático para analizar imágenes del objetivo, identificar elementos clave de expresiones faciales como la nariz, comisuras de la boca, ubicaciones de los ojos y así sucesivamente. Usan esa información para sintetizar nuevas imágenes del rostro de esa persona y juntarlas para crear un video del objetivo que parece realista pero falso.
La mayoría de los métodos actuales para detectar deepfakes implican mirar cada fotograma de un video por separado, ya sea manualmente o mediante un algoritmo de detección, para detectar pequeños defectos dejados por el proceso de fabricación de imágenes. Si hay suficiente evidencia de manipulación en suficientes marcos, el video se considera falso.
Sin embargo, Los creadores de deepfake han comenzado a utilizar grandes cantidades de compresión de imágenes y videos para difuminar sus resultados. ocultando cualquier artefacto que pudiera revelar su falsedad.
Mirando secuencias, no fotogramas individuales
Nuestro método busca sortear ese engaño adoptando un enfoque diferente. Extraemos todos los fotogramas de un video e identificamos las áreas que muestran la cara del objetivo. Entonces nosotros, en efecto, apila todas esas imágenes de caras una encima de la otra, asegurándose de que la nariz, los ojos y la boca están alineados entre cada fotograma. Esto elimina los efectos de los movimientos de la cabeza o los cambios de ángulo de la cámara en el video.
Un algoritmo identifica elementos faciales en un fotograma de un video. Crédito:Wael Abd-Almageed, CC BY-ND
Luego, en lugar de mirar cada imagen de la cara individualmente, buscamos inconsistencias en cómo las diferentes partes de la cara se mueven de un fotograma a otro a lo largo del tiempo. Es como configurar un libro animado para niños y luego buscar saltos extraños en la secuencia. Hemos descubierto que este método es más preciso, en parte porque podemos identificar más evidencia de falsedad que cuando miramos cada cuadro por sí solo.
Específicamente, detectamos deepfakes el 96% de las veces, incluso cuando las imágenes y los videos están comprimidos significativamente. Hasta ahora, hemos encontrado ese nivel de precisión solo en la única base de datos a gran escala disponible para los investigadores académicos para evaluar sus técnicas de detección de deepfake, que se llama FaceForensics ++. Ese conjunto de datos contiene videos de tres de los algoritmos de generación de deepfake más destacados, Face2Face, FaceSwap y DeepFake, aunque los farsantes siempre están mejorando sus métodos.
La detección de deepfake es una carrera armamentista, en el que los falsificadores y buscadores de la verdad seguirán avanzando en sus respectivas tecnologías. Por lo tanto, el trabajo de limitar sus efectos en la sociedad en su conjunto no puede recaer solo en los investigadores. Los estudiosos y los experimentadores deben seguir trabajando, por supuesto, pero eso no es todo. Creo que las plataformas de redes sociales también deberían trabajar para desarrollar software y políticas que retrasen la propagación de información errónea de todo tipo, ya sea manipulando la cara de una persona o mostrando todo su cuerpo moviéndose de formas que nunca podrían hacerlo.
Este artículo se ha vuelto a publicar de The Conversation con una licencia de Creative Commons. Lea el artículo original.