• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • La tecnología de manipulación de video representa un peligro para futuras elecciones

    Crédito:CC0 Public Domain

    Un video en las redes sociales muestra a un legislador estadounidense de alto rango declarando su apoyo a un aumento de impuestos abrumador. Reaccionas en consecuencia porque el video se parece a él y suena a él, así que ciertamente ha sido él.

    No necesariamente.

    El término "noticias falsas" está tomando un giro mucho más literal a medida que la nueva tecnología facilita la manipulación de las caras y el audio en los videos. Los videos, llamados deepfakes, luego se pueden publicar en cualquier sitio de redes sociales sin indicios de que no son reales.

    Edward Delp, director del Laboratorio de Procesamiento de Imágenes y Video en la Universidad de Purdue, dice que los deepfakes son un peligro creciente con las próximas elecciones presidenciales que se acercan rápidamente.

    "Es posible que la gente use videos falsos para crear noticias falsas e insertarlas en una elección política, "dijo Delp, el Profesor Distinguido Charles William Harrison de Ingeniería Eléctrica e Informática. "Ya ha habido alguna evidencia de eso en otras elecciones en todo el mundo.

    "Tenemos nuestras elecciones en 2020 y sospecho que la gente las usará. La gente les cree y ese será el problema".

    Los videos representan un peligro para influir en la opinión pública a través de las redes sociales. ya que casi el 70 por ciento de los adultos indica que usa Facebook, generalmente a diario. YouTube cuenta con números aún más altos, con más del 90 por ciento de los jóvenes de 18 a 24 años usándolo.

    Delp y el estudiante de doctorado David Güera han trabajado durante dos años en la manipulación de video como parte de una investigación más amplia sobre análisis forense de medios. Han trabajado con sofisticadas técnicas de aprendizaje automático basadas en inteligencia artificial y aprendizaje automático para crear un algoritmo que detecta deepfakes.

    Crédito:Universidad Purdue

    A finales del año pasado, Delp y el algoritmo de su equipo ganaron un concurso de la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA). DARPA es una agencia del Departamento de Defensa de EE. UU.

    "Al analizar el video, el algoritmo puede ver si la cara es consistente o no con el resto de la información en el video, "Dijo Delp." Si es inconsistente, detectamos estas sutiles inconsistencias. Puede ser tan pequeño como unos pocos píxeles, puede haber inconsistencias de color, puede haber diferentes tipos de distorsión ".

    "Nuestro sistema se basa en datos, para que pueda buscar todo, puede buscar anomalías como parpadear, puede buscar anomalías en la iluminación, "Güera dijo, agregar el sistema continuará mejorando en la detección de deepfakes a medida que le brinden más ejemplos de los que aprender.

    La investigación se presentó en noviembre en la Conferencia Internacional IEEE de 2018 sobre videovigilancia avanzada y vigilancia basada en señales.

    Los deepfakes también se pueden usar para falsificar videos e imágenes pornográficas, utilizando los rostros de celebridades o incluso de niños.

    Delp dijo que los primeros deepfakes eran más fáciles de detectar. Las técnicas no pudieron recrear bien el movimiento de los ojos, resultando en videos de una persona que no parpadeó. Pero los avances han hecho que la tecnología sea mejor y esté más disponible para las personas.

    Las organizaciones de noticias y los sitios de redes sociales están preocupados por el futuro de los deepfakes. Delp prevé tener herramientas como su algoritmo en el futuro para determinar qué metraje de video es real y qué es un deepfake.

    "Es una carrera armamentista, ", dijo." Su tecnología es cada vez mejor, pero me gusta pensar que seremos capaces de seguir el ritmo ".


    © Ciencia https://es.scienceaq.com