• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • Deepfakes:lucha contra los videos falsos, de Silicon Valley a Washington

    Crédito:CC0 Public Domain

    Ya sea un video que muestra la cara de otra persona en un cuerpo diferente o el ex presidente Barack Obama diciendo cosas que en realidad no dijo, "deepfakes" ahora son una cosa.

    Otro uso popular de estos videos manipulados:pornografía falsa, presentando a todos, desde la actriz Scarlett Johansson hasta posiblemente cualquier persona cuyas fotos estén disponibles en línea.

    Johansson, quien sin saberlo ha protagonizado un video pornográfico supuestamente filtrado que el El Correo de Washington dice que ha sido visto más de 1,5 millones de veces en un importante sitio de pornografía, siente que la situación es desesperada.

    "Nada puede evitar que alguien corte y pegue mi imagen o la de otra persona en un cuerpo diferente y haga que parezca tan inquietantemente realista como se desee, "le dijo al Correo en una historia publicada hace unos días. "Internet es un enorme agujero de gusano de oscuridad que se come a sí mismo".

    Es por eso que los investigadores están trabajando arduamente tratando de encontrar formas de detectar tal falsificación, incluso en SRI International en Menlo Park.

    La manipulación de videos solía ser materia de películas, hecho por Disney, Pixar y otros, dijo Bob Bolles, director de programa en el programa de percepción del centro de IA en SRI. "Ahora las aplicaciones de intercambio de caras son cada vez mejores".

    Bolles mostró recientemente cómo él y su equipo están tratando de detectar cuándo se ha manipulado el video.

    El equipo busca inconsistencias entre el video y la pista de audio, por ejemplo, observar si los movimientos de los labios de una persona coinciden con los sonidos del video. Piense en videos que no sean tan obvios como los antiguos, películas de kung fu mal dobladas.

    El equipo también intenta detectar sonidos que pueden no coincidir con el fondo. dijo Aaron Lawson, subdirector del laboratorio de habla del SRI. Por ejemplo, El video puede mostrar una escena en el desierto, pero las reverberaciones pueden indicar que el sonido se grabó en interiores.

    "Necesitamos un conjunto de pruebas" para mantenernos al día con los piratas informáticos que seguramente seguirán descubriendo nuevas formas de seguir engañando a la gente. Dijo Bolles.

    El equipo de SRI es solo una de las muchas organizaciones, universidades y empresas que trabajan para tratar de detectar e incluso rastrear deepfakes bajo un programa DARPA llamado MediFor, que es la abreviatura de análisis forense de medios. Matt Turek, director de programa de MediFor en la Agencia de Proyectos de Investigación Avanzada de Defensa en Washington, CORRIENTE CONTINUA., dijo que 14 contratistas principales están trabajando en el proyecto, que se inició en el verano de 2016. Esos contratistas tienen subcontratistas que trabajan en MediFor, también.

    "Ha habido un cambio significativo en el último año a medida que las manipulaciones automatizadas se han vuelto más convincentes, ", Dijo Turek. La inteligencia artificial y el aprendizaje automático han ayudado a que las herramientas para crear deepfakes sean más potentes, y los investigadores están utilizando IA para intentar defenderse.

    "El desafío es crear algoritmos para mantenerse al día y adelantarse a la tecnología que existe, "Dijo Turek.

    DARPA espera que los frutos del programa MediFor se distribuyan por todas partes, recogido por empresas de tecnología como Facebook y YouTube, que manejan una gran fracción de los videos generados por usuarios del mundo.

    Por ejemplo, un video publicado en YouTube por BuzzFeed el pasado mes de abril, con el comediante y actor Jordan Peele ventrílocuo a Obama, y ​​el ex presidente aparentemente calificando al presidente Donald Trump de improperio, tiene más de 5.3 millones de visitas.

    Turek marcó otros posibles usos para deepfakes, como tergiversar los productos que se venden en línea, o engañar a las compañías de seguros por accidentes automovilísticos. Dijo que ha habido evidencia de investigadores que utilizan imágenes manipuladas para que sus hallazgos científicos puedan publicarse. Y predice que eventualmente, Las herramientas pueden volverse tan buenas que una serie de deepfakes podrán convencer a la gente de eventos importantes que no sucedieron, lo que indica a los teóricos de la conspiración.

    "Los deepfakes podrían alterar la forma en que confiamos en la imagen y el video como sociedad, "Dijo Turek.

    © 2019 The Mercury News (San José, Calif.)
    Distribuido por Tribune Content Agency, LLC.




    © Ciencia https://es.scienceaq.com