• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • Los investigadores desarrollan una vacuna contra los ataques al aprendizaje automático

    Crédito:CC0 Public Domain

    Investigadores de Data61 de CSIRO, el brazo especializado en datos y digital de la agencia científica nacional de Australia, han desarrollado un conjunto de técnicas pioneras en el mundo para 'vacunar' eficazmente los algoritmos contra los ataques adversarios, un avance significativo en la investigación del aprendizaje automático.

    Los algoritmos 'aprenden' de los datos en los que están entrenados para crear un modelo de aprendizaje automático que puede realizar una tarea determinada de manera efectiva sin necesidad de instrucciones específicas, como hacer predicciones o clasificar imágenes y correos electrónicos con precisión. Estas técnicas ya se utilizan ampliamente, por ejemplo, para identificar correos electrónicos no deseados, diagnosticar enfermedades a partir de rayos X, predecir los rendimientos de los cultivos y pronto conducirá nuestros coches.

    Si bien la tecnología tiene un enorme potencial para transformar positivamente nuestro mundo, La inteligencia artificial y el aprendizaje automático son vulnerables a los ataques adversarios. una técnica empleada para engañar a los modelos de aprendizaje automático mediante la entrada de datos maliciosos que hacen que funcionen mal.

    Dr. Richard Nock, El líder del grupo de aprendizaje automático en Data61 de CSIRO dijo que al agregar una capa de ruido (es decir, un adversario) sobre una imagen, Los atacantes pueden engañar a los modelos de aprendizaje automático para que clasifiquen erróneamente la imagen.

    "Los ataques contradictorios han demostrado ser capaces de engañar a un modelo de aprendizaje automático para que etiquete incorrectamente una señal de alto de tráfico como señal de velocidad, que podría tener efectos desastrosos en el mundo real.

    "Nuestras nuevas técnicas previenen los ataques adversarios mediante un proceso similar a la vacunación, "Dijo el Dr. Nock.

    "Implementamos una versión débil de un adversario, como pequeñas modificaciones o distorsiones en una colección de imágenes, para crear un conjunto de datos de entrenamiento más "difícil". Cuando el algoritmo se entrena con datos expuestos a una pequeña dosis de distorsión, el modelo resultante es más robusto e inmune a los ataques adversarios, "

    En un artículo de investigación aceptado en la Conferencia Internacional sobre Aprendizaje Automático (ICML) de 2019, los investigadores también demuestran que las técnicas de 'vacunación' se construyen a partir de los peores ejemplos adversarios posibles, y por lo tanto puede resistir ataques muy fuertes.

    Adrian Turner, El CEO de Data61 de CSIRO dijo que esta investigación es una contribución significativa al campo creciente del aprendizaje automático adversario.

    "La inteligencia artificial y el aprendizaje automático pueden ayudar a resolver algunos de los problemas sociales más importantes del mundo, retos económicos y medioambientales, pero eso no puede suceder sin una investigación enfocada en estas tecnologías.

    "Las nuevas técnicas contra ataques adversarios desarrolladas en Data61 impulsarán una nueva línea de investigación de aprendizaje automático y garantizarán el uso positivo de tecnologías de IA transformadoras, "Dijo el Sr. Turner.

    El trabajo de investigación, "Monge embota a Bayes:Resultados de dureza para el entrenamiento de adversarios, "se presentó en ICML el 13 de junio en Los Ángeles.


    © Ciencia https://es.scienceaq.com