• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • Certificación de la resistencia al ataque de redes neuronales convolucionales

    Figura 1. CNN-Cert admite muchos módulos populares y operaciones de capa en redes neuronales convolucionales. Crédito:IBM

    Cuando compre un reloj, puede notar su clasificación de resistencia al agua, lo que indica que se garantiza que el reloj es resistente al agua hasta cierto nivel. ¿Y tu red neuronal? ¿Se puede garantizar que una red neuronal sea "a prueba de ataques"? lo que significa que su funcionalidad es robusta contra perturbaciones adversas? Si es así, ¿Cómo se puede cuantificar esto con un número de resistencia al ataque? En AAAI 2019, Nuestro grupo de investigadores de MIT e IBM Research propone un método eficiente y eficaz para certificar la resistencia al ataque de las redes neuronales convolucionales a los datos de entrada dados. Este artículo es seleccionado para presentación oral en AAAI 2019 (30 de enero de 2:00-3:30 pm @ coral 1).

    Se sabe que los modelos actuales de redes neuronales profundas son vulnerables a las perturbaciones adversas. Una pequeña perturbación cuidadosamente elaborada en los datos de entrada podría manipular fácilmente la predicción de la salida del modelo, incluidas las tareas de aprendizaje automático, como el reconocimiento de objetos, traducción de voz, subtítulos de imágenes, y clasificación de texto, para nombrar unos pocos. La falta de solidez ante las perturbaciones adversas genera nuevos desafíos en la investigación de la IA y puede impedir nuestra confianza en los sistemas de IA.

    Dada una red neuronal y considerando un modelo de amenaza adversaria en el que la fuerza del ataque se caracteriza por la norma Lp de la perturbación, para cualquier entrada de datos, su robustez adversarial se puede cuantificar como la fuerza de ataque mínima requerida para alterar la predicción del modelo (ver Figura 1 en la publicación anterior para una ilustración visual). Aquí, un certificado de robustez a prueba de ataques para una entrada especifica una fuerza de ataque ε y ofrece la siguiente resistencia al ataque garantizada:bajo el modelo de amenaza delimitado por normas, ninguna perturbación adversa puede alterar la predicción de la entrada si su fuerza de ataque es menor que ε. En otras palabras, ε más grande significa que la entrada es más robusta. Esta certificación de robustez puede ser crucial en aplicaciones de IA críticas para la seguridad o sensibles a los costos que requieren alta precisión y confiabilidad. como los sistemas de conducción autónomos.

    Nuestro método propuesto, CNN-Cert, proporciona un marco general y eficiente para certificar el nivel de solidez contradictoria de las redes neuronales convolucionales a los datos de entrada dados. Nuestro marco es general:podemos manejar varias arquitecturas, incluidas capas convolucionales, capas de agrupación máxima, capa de normalización por lotes, bloques residuales, así como funciones de activación general como ReLU, tanh, sigmoide y arctano. La Figura 1 muestra algunos bloques de construcción de uso común considerados en nuestro marco CNN-Cert. La técnica clave en CNN-Cert es derivar una salida de red explícita ligada al considerar las relaciones de entrada / salida de cada bloque de construcción, marcado como flechas rojas. La capa de activación puede ser activaciones generales distintas de ReLU. Nuestro enfoque también es eficiente, al explotar la estructura especial de capas convolucionales, logramos hasta 17 y 11 veces de aceleración en comparación con los algoritmos de certificación de última generación y 366 veces de aceleración en comparación con un enfoque estándar de doble LP, mientras que nuestro método obtiene límites de resistencia de ataque similares o incluso mejores .

    Esta historia se vuelve a publicar por cortesía de IBM Research. Lea la historia original aquí.




    © Ciencia https://es.scienceaq.com