• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • Esta red neuronal profunda lucha contra los deepfakes

    La IA servirá para desarrollar un sistema de control de red que no solo detecta y reacciona ante problemas, sino que también puede predecirlos y evitarlos. Crédito:CC0 Public Domain

    Ver para creer hasta que la tecnología asomó su poderosa cabeza y nos brindó herramientas de edición de fotografías poderosas y económicas. Ahora, videos realistas que mapean las expresiones faciales de una persona con las de otra, conocido como deepfakes, presentan un arma política formidable.

    Pero ya sea el suavizado benigno de una arruga en un retrato, o un video manipulado para que parezca un político que dice algo ofensivo, Toda la edición de fotos deja huellas para que las descubran las herramientas adecuadas.

    Investigación dirigida por el Grupo de Computación de Video de Amit Roy-Chowdhury en la Universidad de California, Riverside ha desarrollado una arquitectura de red neuronal profunda que puede identificar imágenes manipuladas a nivel de píxel con alta precisión. Roy-Chowdhury es profesor de ingeniería eléctrica e informática y miembro de la facultad de la familia Bourns en el Marlan and Rosemary Bourns College of Engineering.

    Una red neuronal profunda es lo que los investigadores de inteligencia artificial denominan sistemas informáticos que han sido entrenados para realizar tareas específicas. en este caso, reconocer imágenes alteradas. Estas redes están organizadas en capas conectadas; "arquitectura" se refiere al número de capas y la estructura de las conexiones entre ellas.

    Los objetos en las imágenes tienen límites y siempre que se inserta o quita un objeto de una imagen, su límite tendrá cualidades diferentes a los límites de los objetos en la imagen de forma natural. Por ejemplo, alguien con buenas habilidades en Photoshop hará todo lo posible para que el objeto insertado se vea lo más natural posible suavizando estos límites.

    Si bien esto puede engañar a simple vista, cuando se examina píxel a píxel, los límites del objeto insertado son diferentes. Por ejemplo, a menudo son más suaves que los objetos naturales. Al detectar los límites de los objetos insertados y eliminados, una computadora debería poder identificar imágenes alteradas.

    Los investigadores etiquetaron las imágenes no manipuladas y los píxeles relevantes en las regiones fronterizas de las imágenes manipuladas en un gran conjunto de datos de fotos. El objetivo era enseñar a la red neuronal conocimientos generales sobre las regiones manipuladas y naturales de las fotos. Probaron la red neuronal con un conjunto de imágenes que nunca antes había visto, y detectaba los alterados la mayor parte del tiempo. Incluso vio la región manipulada.

    "Entrenamos al sistema para distinguir entre imágenes manipuladas y no manipuladas, y ahora si le da una nueva imagen es capaz de proporcionar una probabilidad de que esa imagen sea manipulada o no, y para localizar la región de la imagen donde ocurrió la manipulación, "Dijo Roy-Chowdhury.

    Los investigadores están trabajando en imágenes fijas por ahora, pero señalan que esto también puede ayudarlos a detectar videos deepfake.

    "Si puede comprender las características de una imagen fija, en un video, básicamente se trata de juntar imágenes fijas una tras otra, ", Dijo Roy-Chowdhury." El desafío más fundamental es probablemente averiguar si un fotograma de un video está manipulado o no ".

    Incluso un solo marco manipulado levantaría una bandera roja. Pero Roy-Chowdhury cree que todavía tenemos un largo camino por recorrer antes de que las herramientas automatizadas puedan detectar videos deepfake en la naturaleza.

    "Es un problema desafiante, "Roy-Chowdhury dijo." Esto es una especie de juego del gato y el ratón. Toda esta área de la ciberseguridad está de alguna manera tratando de encontrar mejores mecanismos de defensa, pero luego el atacante también encuentra mejores mecanismos ".

    Dijo que la detección de deepfake completamente automatizada podría no ser alcanzable en un futuro cercano.

    "Si quieres ver todo lo que hay en Internet, un humano no puede hacerlo por un lado, y un sistema automatizado probablemente no pueda hacerlo de manera confiable. Entonces tiene que ser una mezcla de los dos "Dijo Roy-Chowdhury.

    Las arquitecturas de redes neuronales profundas pueden producir listas de videos e imágenes sospechosas para que las personas las revisen. Las herramientas automatizadas pueden reducir la cantidad de datos que las personas, como los moderadores de contenido de Facebook, tienen que examinar para determinar si una imagen ha sido manipulada.

    Para este uso, las herramientas están a la vuelta de la esquina.

    "Eso probablemente sea algo a lo que estas tecnologías contribuirán en un período de tiempo muy corto, probablemente en unos años, "Dijo Roy-Chowdhury.


    © Ciencia https://es.scienceaq.com