Falso o real? Ejemplos del conjunto de datos de recreación personal de FaceForensics. De izquierda a derecha:imagen de entrada original, imagen de salida auto-recreada, gráfico de diferencia de color y máscara facial que se utiliza durante la síntesis de la imagen de salida. Crédito:arXiv:1803.09179 [cs.CV]
La manipulación de imágenes en esta etapa avanzada de la era digital no es tan divertida sino un arma peligrosa. en las sombras de las noticias falsas, para influir en la opinión y provocar escándalos.
Intercambio de caras, en particular, suena divertido si lo piensas como una risa en una mesa familiar mientras niños y adultos prueban diferentes caras en diferentes personas. Sin embargo, también es una herramienta para motivos mucho peores. Swapna Krishna en Engadget comentó que "la gente tiene, por supuesto, aprovechado esta herramienta para algunos usos inquietantes, incluyendo el intercambio de caras de personas en videos pornográficos, el mejor porno de venganza ".
En Revisión de tecnología del MIT , la "Tecnología emergente de arXiv" dijo, "Han aparecido videos pornográficos llamados 'deepfakes' en sitios web que muestran rostros de personajes famosos superpuestos a los cuerpos de los actores".
Investigadores sin embargo, interesado en explorar la herramienta y saber si se utiliza, han ideado un algoritmo, dicen los observadores, que puede superar a otras técnicas disponibles. Descubrieron una forma de detectar un cambio de rostro a través del algoritmo, recogiendo videos falsificados tan pronto como se publiquen.
Analítica Vidhya comentó, "Se necesitaba desesperadamente algo parecido a este algoritmo para librar la batalla contra el uso de intercambios de rostros por razones equivocadas. Al publicar el artículo de investigación al público, los investigadores esperan que otros también tomen el relevo y trabajen en este estudio para hacerlo más exacto y preciso ".
Andreas Rossler fue el líder del equipo de los participantes de la Universidad Técnica de Munich, Universidad Federico II de Nápoles y Universidad de Erlangen-Nuremberg.
Entrenaron el algoritmo, XceptionNet, usando un gran conjunto de intercambios faciales, dijo Engadget .
"Establecimos una sólida base de resultados para detectar una manipulación facial con arquitecturas modernas de aprendizaje profundo, "dijo Rossler y su equipo en Revisión de tecnología del MIT . El tamaño importaba.
El tamaño de esta base de datos supuso una mejora significativa con respecto a lo que había estado disponible anteriormente. "Presentamos un nuevo conjunto de datos de videos manipulados que supera todos los conjuntos de datos forenses disponibles públicamente en órdenes de magnitud, "dijo Rossler.
En su papel los autores dijeron que introdujeron un conjunto de datos de manipulación facial, FaceForensics, "de aproximadamente medio millón de imágenes editadas (de más de 1000 videos)".
El documento se titula "FaceForensics:un conjunto de datos de video a gran escala para la detección de falsificaciones en rostros humanos, "en arXiv. Los autores son Andreas Rössler, Davide Cozzolino, Luisa Verdoliva, Christian Riess, Justus Thies y Matthias Nießner.
Los autores llamaron la atención sobre la dificultad, para humanos y computadoras, de tratar de distinguir entre video original y manipulado, "especialmente cuando los videos están comprimidos o tienen baja resolución, como suele ocurrir en las redes sociales ".
También llamaron la atención sobre el hecho de que "la investigación sobre la detección de manipulaciones faciales se ha visto seriamente obstaculizada por la falta de conjuntos de datos adecuados".
Hay un matiz en su éxito, aunque, que también merece atención. El artículo "Tecnología emergente de arXiv" lo llamó el "aguijón en la cola". ¿Qué es? "La misma técnica de aprendizaje profundo que puede detectar videos de intercambio de rostros también se puede utilizar para mejorar la calidad de los intercambios de rostros en primer lugar, y eso podría hacerlos más difíciles de detectar".
Engadget dicho de manera similar, "XceptionNet supera claramente a sus técnicas rivales en la detección de este tipo de video falso, pero también mejora la calidad de las falsificaciones. El equipo de Rossler puede usar los sellos más importantes de un cambio de rostro para hacer que la manipulación sea más fluida. No engaña a XceptionNet, pero a la larga podría dificultar que otros métodos detecten videos falsos ".
Pranav Dar, en Analítica Vidhya , también intervino en lo que llamó "una advertencia con este algoritmo:también se puede usar potencialmente para mejorar la calidad de los intercambios faciales, lo que hará que sea más difícil detectar la falsificación". tan pronto como se lance un algoritmo de detección de falsificaciones, los estafadores siempre intentan perfeccionar su modelo para ir un paso por delante ".
Sin embargo, los autores dijeron, "nuestro refinador mejora principalmente la calidad visual, pero solo dificulta ligeramente la detección de falsificaciones para el método de aprendizaje profundo entrenado exactamente en los datos de salida falsificados ".
© 2018 Tech Xplore