• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • Los investigadores miden la confiabilidad, confianza para la IA de próxima generación

    Los investigadores observan una diferencia similar en la conformidad para los ejemplos fuera de distribución y los ejemplos contradictorios, lo que motiva el uso de conformidad en el vecindario de atribución como una métrica de confianza. Crédito:Gráfico del Ejército de EE. UU.

    Un equipo de investigadores del ejército y de la industria ha desarrollado una métrica para las redes neuronales (sistemas informáticos modelados libremente a partir del cerebro humano) que podría evaluar la confiabilidad y la confianza de la próxima generación de algoritmos de inteligencia artificial y aprendizaje automático.

    Red neuronal profunda, o DNN, son una forma de aprendizaje automático que utiliza datos de entrenamiento para aprender. Una vez entrenado, pueden hacer predicciones cuando se les da nueva información o insumos; sin embargo, pueden ser fácilmente engañados si la nueva información está demasiado lejos de su entrenamiento.

    Los investigadores dijeron que dada la diversidad de información en los datos de entrenamiento y los posibles nuevos insumos, Encontrar una solución es un desafío.

    "Esto abre una nueva oportunidad de investigación para crear la próxima generación de algoritmos que sean robustos y resistentes, "dijo el Dr. Brian Jalaian, científico del Laboratorio de Investigación del Ejército del Comando de Desarrollo de Capacidades de Combate del Ejército de EE. UU. "Nuestro enfoque es versátil y se puede agregar como un bloque adicional a muchos de los algoritmos modernos del Ejército utilizando algoritmos modernos de aprendizaje automático que se basan en redes neuronales profundas utilizadas para imágenes visuales".

    Esta nueva métrica de confianza ayudará al Ejército a crear técnicas seguras de aprendizaje automático, y se aplicará en los sistemas de mando y control, sistemas de precisión contra incendios y de apoyo a la toma de decisiones, Dijo Jalaian.

    Desde 2018, investigadores del Ejército y SRI International, a través de la Alianza de investigación colaborativa de Internet of Battlefield Things del laboratorio, han investigado métodos para fortalecer los algoritmos de aprendizaje automático del Ejército a fin de brindar mayor confiabilidad y seguridad, y ser menos susceptible a las técnicas de aprendizaje automático adversas.

    Los investigadores publicaron su trabajo, "Métrica de confianza basada en atribución para redes neuronales profundas", en la Conferencia de Sistemas de Procesamiento de Información Neural de 2019.

    "Si bien tuvimos cierto éxito, no teníamos un enfoque para detectar los ataques de última generación más fuertes, como los parches (adversarios) que agregan ruido a las imágenes, de tal manera que conducen a predicciones incorrectas, "Dijo Jalaian." En este trabajo, propusimos un modelo generativo, que ajusta aspectos de las imágenes de entrada originales en la red neuronal profunda original subyacente. Luego, se evalúa la respuesta de la red neuronal profunda original a estas entradas generadas para medir la conformidad del modelo ".

    Esto difiere del cuerpo de investigación existente, ya que no requiere acceso a los datos de entrenamiento, el uso de conjuntos o la necesidad de entrenar un modelo de calibración en un conjunto de datos de validación que no es el mismo que el conjunto de entrenamiento, Dijo Jalaian.

    Dentro del Ejército, Los investigadores continúan trabajando con la comunidad de pruebas y evaluaciones para desarrollar algoritmos en contenedores que miden la confianza de varios algoritmos en diferentes aplicaciones.

    Jalaian dijo que están explorando variaciones de modelos generativos que podrían fortalecer los sistemas de inteligencia artificial del Ejército contra manipulaciones adversas. además de investigar la resiliencia de los modelos de redes neuronales, tanto teórica como empíricamente, que podría ejecutarse en pequeños dispositivos inteligentes, como los que formarían parte de Internet of Battlefield Things.


    © Ciencia https://es.scienceaq.com