• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • Detectar videos deepfake en un abrir y cerrar de ojos

    En realidad, es muy difícil encontrar fotos de personas con los ojos cerrados. Crédito:Bulin / Shutterstock.com

    Una nueva forma de desinformación está lista para extenderse a través de las comunidades en línea a medida que se intensifican las campañas electorales de mitad de período de 2018. Llamados "deepfakes" por la cuenta en línea seudónima que popularizó la técnica, que puede haber elegido su nombre porque el proceso utiliza un método técnico llamado "aprendizaje profundo", estos videos falsos parecen muy realistas.

    Hasta aquí, La gente ha usado videos deepfake en pornografía y sátira para dar la impresión de que los famosos están haciendo cosas que normalmente no harían. Pero es casi seguro que aparecerán deepfakes durante la temporada de campaña, pretendiendo representar a candidatos diciendo cosas o yendo a lugares que el candidato real no haría.

    Debido a que estas técnicas son tan nuevas, la gente tiene problemas para distinguir la diferencia entre los videos reales y los videos deepfake. Mi trabajo, con mi colega Ming-Ching Chang y nuestro Ph.D. estudiante Yuezun Li, ha encontrado una manera de distinguir de manera confiable los videos reales de los videos deepfake. No es una solución permanente porque la tecnología mejorará. Pero es un comienzo y ofrece la esperanza de que las computadoras puedan ayudar a la gente a distinguir la verdad de la ficción.

    ¿Qué es un 'deepfake, ' ¿de todas formas?

    Hacer un video deepfake es muy parecido a traducir entre idiomas. Los servicios como Google Translate utilizan el aprendizaje automático (análisis informático de decenas de miles de textos en varios idiomas) para detectar patrones de uso de palabras que utilizan para crear la traducción.

    Es Barack Obama, ¿o no?

    Los algoritmos deepfake funcionan de la misma manera:utilizan un tipo de sistema de aprendizaje automático llamado red neuronal profunda para examinar los movimientos faciales de una persona. Luego sintetizan imágenes del rostro de otra persona haciendo movimientos análogos. Al hacerlo, se crea un video de la persona objetivo que parece hacer o decir las cosas que hizo la persona fuente.

    Antes de que puedan funcionar correctamente, Las redes neuronales profundas necesitan mucha información de origen, como fotos de las personas que son la fuente o el objetivo de la suplantación de identidad. Cuantas más imágenes se utilicen para entrenar un algoritmo deepfake, más realista será la suplantación digital.

    Detectando parpadeo

    Todavía hay fallas en este nuevo tipo de algoritmo. Uno de ellos tiene que ver con cómo parpadean o no las caras simuladas. Los humanos adultos sanos parpadean en algún lugar entre cada 2 y 10 segundos, y un solo parpadeo tarda entre una décima y cuatro décimas de segundo. Eso es lo que sería normal ver en un video de una persona hablando. Pero no es lo que sucede en muchos videos deepfake.

    Cómo se hacen los videos deepfake.

    Cuando se entrena un algoritmo deepfake en imágenes faciales de una persona, depende de las fotos disponibles en Internet que se pueden utilizar como datos de entrenamiento. Incluso para las personas que son fotografiadas con frecuencia, Hay pocas imágenes disponibles en línea que muestren sus ojos cerrados. Las fotos como esa no solo son raras, porque los ojos de las personas están abiertos la mayor parte del tiempo, sino que los fotógrafos generalmente no publican imágenes donde los ojos de los sujetos principales están cerrados.

    Sin entrenar imágenes de personas parpadeando, Es menos probable que los algoritmos deepfake creen caras que parpadeen normalmente. Cuando calculamos la tasa general de parpadeo, y lo compara con el rango natural, Descubrimos que los personajes de los videos deepfake parpadean con mucha menos frecuencia en comparación con las personas reales. Nuestra investigación utiliza el aprendizaje automático para examinar la apertura y el cierre de los ojos en los videos.

    Esto nos da una inspiración para detectar videos deepfake. Después, Desarrollamos un método para detectar cuando la persona en el video parpadea. Para ser más especifico, escanea cada fotograma de un video en cuestión, detecta las caras en él y luego localiza los ojos automáticamente. Luego utiliza otra red neuronal profunda para determinar si el ojo detectado está abierto o cerrado, usando la apariencia del ojo, características geométricas y movimiento.

    Sabemos que nuestro trabajo se está aprovechando de una falla en el tipo de datos disponibles para entrenar algoritmos deepfake. Para evitar caer presa de un defecto similar, hemos entrenado nuestro sistema en una gran biblioteca de imágenes de ojos abiertos y cerrados. Este método parece funcionar bien, y como un resultado, hemos logrado una tasa de detección de más del 95 por ciento.

    Esta no es la última palabra sobre la detección de deepfakes, por supuesto. La tecnología está mejorando rápidamente, y la competencia entre generar y detectar videos falsos es análoga a un juego de ajedrez. En particular, El parpadeo se puede agregar a los videos deepfake al incluir imágenes faciales con los ojos cerrados o al usar secuencias de video para entrenar. Las personas que quieran confundir al público mejorarán en la creación de videos falsos, y nosotros y otros miembros de la comunidad tecnológica tendremos que seguir encontrando formas de detectarlos.

    Una persona real parpadea mientras habla.
    Un rostro simulado no parpadea como lo hace una persona real.

    Este artículo se publicó originalmente en The Conversation. Lea el artículo original.




    © Ciencia https://es.scienceaq.com