• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • Esperar, ¿Ese video es real? La carrera contra los deepfakes y los peligros de las grabaciones manipuladas

    Crédito:CC0 Public Domain

    Solía ​​llevar mucho tiempo y experiencia falsificar videos de manera realista. Ya no.

    Por décadas, Las representaciones de video de aspecto auténtico solo se vieron en películas de ciencia ficción de gran presupuesto como "Star Wars". Sin embargo, gracias al auge de la inteligencia artificial, el metraje de curación se ha vuelto más accesible que nunca, lo que, según los investigadores, representa una amenaza para la seguridad nacional.

    "Hasta hace poco, hemos podido confiar en gran medida en grabaciones de audio (y) video, "dijo Hany Farid, profesor de informática en Dartmouth College. Dijo que los avances en el aprendizaje automático han democratizado el acceso a herramientas para crear videos y audios falsos sofisticados y atractivos.

    "No hace falta un esfuerzo de imaginación para ver cómo se puede convertir esto en un arma para interferir con las elecciones, para sembrar disturbios civiles o cometer fraude, "Dijo Farid.

    Con las elecciones presidenciales de 2020 que se avecinan y la agencia de defensa de EE. UU. Preocupada por los videos manipulados que engañan a los votantes, Los legisladores y las instituciones educativas están compitiendo para desarrollar software que pueda detectar y detener lo que se conoce como deepfakes incluso antes de que llegue a Internet.

    Deepfakes

    Una gran preocupación en torno a la idea de que las falsificaciones de videos comenzaron a aparecer en los titulares a fines de 2017 cuando se utilizó software de computadora para superponer celebridades en la pornografía mediante el uso de software de computadora.

    Uno de los ejemplos más conocidos fue creado por la compañía de producción del director Jordan Peele en 2018. El video muestra al ex presidente Barack Obama advirtiendo a la gente que no crea todo lo que ven en Internet.

    Sin embargo, en realidad, no es Obama quien habla. Es Peele ventriloquizando al ex presidente.

    Advertencia:El video a continuación incluye lenguaje grosero para hacer su punto y puede no ser adecuado para espectadores jóvenes.

    Desde entonces, el Departamento de Defensa, a través de la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA), comenzó a desarrollar formas de detectar cuándo un video es un deepfake.

    Un portavoz de la agencia dijo en marzo que si bien muchas manipulaciones de video se realizan por diversión, otros son mucho más peligrosos, ya que pueden utilizarse para difundir propaganda y desinformación.

    La organización busca desarrollar indicadores y filtros en línea que impidan que el contenido manipulado se cargue en Internet.

    Solo se necesitan alrededor de 500 imágenes o 10 segundos de video para crear un deepfake realista, según Siwei Lyu, un investigador que trabaja con el Departamento de Defensa para desarrollar software para detectar y prevenir la propagación de deepfakes.

    Lyu dijo que cualquiera que publique fotos en sitios de redes sociales como Instagram corre el riesgo de ser falsificado.

    Soluciones de software

    La primera pieza de software que Lyu y su equipo de investigadores de la Universidad de Albany introdujeron el año pasado pudo detectar un video deepfake en un abrir y cerrar de ojos. literalmente, analizando la frecuencia con la que parpadean o no parpadean las caras simuladas.

    "Descubrimos que los sujetos (en los videos deepfake) no parpadean mucho, y a veces nada, "Dijo Lyu." Entonces preguntamos por qué sucede esto ".

    Los investigadores encontraron que el software utilizado para hacer deepfakes a menudo depende de las fotos disponibles en Internet. No hay muchas fotos disponibles de personas de alto perfil con los ojos cerrados, para que los sujetos animados de los videos falsos no parpadeen, Dijo Lyu.

    A medida que los creadores de deepfakes empezaron a enterarse del nuevo software, Los investigadores desarrollaron otros métodos para detectar deepfakes, como el uso de algoritmos que detectan movimientos antinaturales entre rostros y cabezas, así como software que analiza el metraje para detectar la pérdida de detalles sutiles.

    "La piel de la cara generada por deepfake tiende a ser demasiado suave, y algunos de los detalles del cabello y los dientes se perderán, "Dijo Lyu." Si miras los dientes más de cerca, se parecen más a un bloque blanco completo que a dientes individuales ".

    Los investigadores de la Universidad de Washington también están experimentando con tecnología deepfake. La escuela descubrió cómo convertir clips de audio en un video sincronizado con los labios de la persona que habla esas palabras en 2017.

    Criminalización

    A finales del año pasado, El senador Ben Sasse (R-Neb.) Presentó un proyecto de ley al Congreso que castigaría a las personas por la creación y distribución maliciosa de deepfakes. La factura, que se introdujo el día anterior al cierre del gobierno, voló por debajo del radar y murió. Pero la oficina de Sasse planea reintroducirlo.

    USA Today se comunicó con Sasse para obtener más información.

    El senador dijo en una entrevista reciente con el presentador de radio Glenn Beck que la "tormenta perfecta de falsificaciones profundas" llegará pronto.

    El estado de Nueva York presentó un proyecto de ley en 2018 que castigaría a las personas que crean videos digitales de sujetos sin su consentimiento.

    A pesar de las preocupaciones sobre los peligros hipotéticos, abuse of deepfakes has yet to be seen outside of adult videos. The Verge published a report in March that questions whether technology for swapping faces is even a major threat seeing as though it has been widely available for years.

    Lyu said that he's doubtful that deepfakes can start a war, and it is unlikely that they will have a long-lasting effect on society as people become increasingly aware of the phenomenon.

    Lyu suggested that people may even become desensitized by them.

    Perception-altering technology was used in April to break down language barriers in a global malaria awareness campaign featuring David Beckham.

    The charity Malaria No Moreposted a video on YouTube highlighting how it used deepfake tech to effectively lip-sync the video of Beckham with the voices of several other people.

    To create the 55-second ad, the nonprofit used visual and voice-altering tech to make Beckham appear multilingual. His speech begins in English, then transitions to eight other languages through dubbing.

    Today, we live in a world in which millions of real people follow computer-generated influencers on social media and don't even know it at the same time governments have worked to develop animated news anchors that have human-like movements.

    One of the clearest examples of real humans adapting to unreal computer-generated people is Lil Miquela, a digitally created "it-girl" with 1.5 million followers on Instagram that she interacts with via direct messages.

    Despite what's in her photo captions, she's not "daydreaming" or partying at Coachella. She's fake, but her followers don't care. They like and comment on her pictures as if she's a real person.

    AI generated humans have also begun showing up on television.

    The Chinese government-run news agency Xinhua began testing out AI news anchors in 2018, a move it claims as the first in the world.

    At first glance, the virtual newsman appears to be an ordinary person with facial expressions and movements that correspond with his speaking voice.

    But seconds into the video, it's apparent that he's not real.

    "I will work tirelessly to keep you informed as texts will be typed into my system uninterrupted, " the news anchor said monotonically in an introductory video. "The development of the media industry calls for continuous innovation and deep integration with the international advanced technologies."

    The agency's first fake female news anchor went live in February and she appears to be even more realistic.

    (c)2019 USA Today
    Distribuido por Tribune Content Agency, LLC.




    © Ciencia https://es.scienceaq.com