• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • Las matemáticas novedosas podrían llevar el aprendizaje automático al siguiente nivel

    El nuevo enfoque permite que la inteligencia artificial aprenda a reconocer imágenes transformadas mucho más rápido. Crédito:Diogo Matias

    Un equipo de matemáticos italianos, incluyendo un neurocientífico del Centro Champalimaud para lo Desconocido (CCU), en lisboa, Portugal, ha demostrado que las máquinas de visión artificial pueden aprender a reconocer imágenes complejas más rápidamente mediante el uso de una teoría matemática que fue desarrollada hace 25 años por uno de los coautores de este nuevo estudio. Sus resultados han sido publicados en la revista Inteligencia de la máquina de la naturaleza .

    En décadas recientes, El rendimiento de la visión artificial ha mejorado enormemente. Los sistemas artificiales ahora pueden aprender a reconocer virtualmente cualquier rostro humano o identificar cualquier pez individual que se mueva en un tanque.

    Tales máquinas son, De hecho, modelos electrónicos de redes de neuronas biológicas, y su objetivo es simular el funcionamiento del cerebro, que sobresale en estas tareas visuales sin ningún esfuerzo consciente de nuestra parte.

    Pero, ¿cómo aprenden realmente estas redes neuronales artificiales? En el caso del reconocimiento facial, por ejemplo, lo hacen adquiriendo experiencia sobre cómo son los rostros humanos en forma de una serie de retratos. Más específicamente, después de digitalizarse en una matriz de valores de píxeles, cada imagen se "procesa" dentro de la red neuronal, que luego extrae general, características significativas del conjunto de caras de muestra (como los ojos, boca, nariz, etc).

    Este aprendizaje profundo permite a la máquina escupir otro conjunto de valores, lo que a su vez le permitirá identificar un rostro que nunca antes había visto en un banco de datos de rostros (muy parecido a una base de datos de huellas dactilares), y por lo tanto predecir a quién pertenece ese rostro con gran precisión.

    La historia de Clever Hans

    Pero antes de que la red neuronal pueda funcionar bien, normalmente es necesario presentarlo con miles de caras (es decir, matrices de números). Es más, aunque estas máquinas han tenido cada vez más éxito en el reconocimiento de patrones, el hecho es que nadie sabe realmente lo que sucede dentro de ellos mientras aprenden tareas. Básicamente son cajas negras.

    Lo que esto significa es que no es posible determinar qué o cuántas funciones extrae realmente la máquina de los datos iniciales, y ni siquiera cuántas de esas funciones son realmente significativas para el reconocimiento facial.

    "Para ilustrar esto, considera el paradigma del caballo sabio, "dice el primer autor del estudio Mattia Bergomi, quien trabaja en el Laboratorio de Neurociencia de Sistemas de la CCU. La historia, desde los primeros años del siglo XX, se refiere a un caballo en Alemania llamado Clever Hans que su maestro afirmó que había aprendido a realizar aritmética y anunciar el resultado de las adiciones, restas, etc., estampando una de sus pezuñas delanteras en el suelo el número correcto de veces. Mucha gente estaba convencida de que podía contar; el caballo incluso fue informado por el New York Times . Pero entonces, en 1907, un psicólogo alemán demostró que el caballo era, De hecho, captando señales inconscientes en el lenguaje corporal de su maestro que le indicaban cuándo dejar de hacer tapping.

    "Es lo mismo con el aprendizaje automático; no hay control sobre cómo funciona, o lo que ha aprendido durante el entrenamiento, "Bergomi explica. La máquina, no tener conocimiento a priori de rostros, de alguna manera hace sus cosas y funciona.

    Esto llevó a los investigadores a preguntarse si podría haber una manera de inyectar algún conocimiento del mundo real sobre caras u otros objetos en la red neuronal antes del entrenamiento para hacer que explore un espacio más limitado de características posibles en lugar de considerarlas todas. incluidos los que son imposibles en el mundo real. "Queríamos controlar el espacio de las funciones aprendidas, "Dice Bergomi." Es similar a la diferencia entre un jugador de ajedrez mediocre y un experto:el primero ve todos los movimientos posibles, mientras que este último solo ve a los buenos, " él añade.

    Otra forma de decirlo, él dice, es diciendo que "nuestro estudio aborda la siguiente pregunta simple:cuando entrenamos una red neuronal profunda para distinguir las señales de tráfico, ¿Cómo podemos decirle a la red que su trabajo será mucho más fácil si solo tiene que preocuparse por formas geométricas simples como círculos y triángulos? "

    Los científicos razonaron que este enfoque reduciría sustancialmente el tiempo de capacitación y, lo que es más importante, déles una pista sobre lo que podría estar haciendo la máquina para obtener sus resultados. "Permitir que los humanos impulsen el proceso de aprendizaje de las máquinas de aprendizaje es fundamental para avanzar hacia una inteligencia artificial más inteligible y reducir el costo vertiginoso en tiempo y recursos que las redes neuronales actuales requieren para recibir capacitación". " él dice.

    ¿Qué hay en una forma?

    Una teoría matemática abstracta llamada análisis de datos topológicos (TDA) fue clave. Los primeros pasos en el desarrollo de TDA fueron dados en 1992 por el matemático italiano Patrizio Frosini, coautor del nuevo estudio, actualmente en la Universidad de Bolonia. "La topología es una de las formas más puras de matemáticas, "dice Bergomi." Y hasta hace poco, la gente pensó que la topología no sería aplicable a nada concreto durante mucho tiempo, hasta que TDA se hizo conocida en los últimos años ".

    La topología es una especie de geometría extendida que, en lugar de medir líneas y ángulos en formas rígidas (como triángulos, cuadrícula, conos etc.), busca clasificar objetos de alta complejidad según su forma. Para un topólogo, por ejemplo, una rosquilla y una taza son el mismo objeto:una se puede deformar en la otra al estirarla o comprimirla.

    Ahora, la cosa es, Las redes neuronales actuales no son buenas en topología. Por ejemplo, no reconocen los objetos rotados. Para ellos el mismo objeto se verá completamente diferente cada vez que se gire. Precisamente por eso, la única solución es hacer que estas redes "memoricen" cada configuración por separado, por miles. Y es precisamente lo que los autores planeaban evitar al usar TDA.

    Piense en TDA como una herramienta matemática para encontrar una estructura interna significativa (características topológicas), en cualquier objeto complejo que pueda representarse como un gran conjunto de números. Esto se logra mirando los datos a través de ciertos "lentes bien elegidos, "o filtros. Los datos en sí pueden referirse a rostros, transacciones financieras o tasas de supervivencia al cáncer. TDA permite enseñar a una red neuronal a reconocer rostros sin tener que presentarle cada una de las diferentes orientaciones que los rostros pueden asumir en el espacio. La máquina ahora reconocerá todas las caras como caras, incluso en diferentes posiciones giradas.

    En su estudio, Los científicos probaron los beneficios de combinar el aprendizaje automático y el TDA al enseñar a una red neuronal a reconocer los dígitos escritos a mano. los resultados hablan por si mismos.

    Como estas redes son malos topólogos y la escritura a mano puede ser muy ambigua, dos dígitos escritos a mano diferentes pueden resultar indistinguibles para las máquinas actuales y, a la inversa, pueden identificar dos instancias del mismo dígito escrito a mano como diferentes. La tarea requiere presentar la red, que no sabe nada sobre dígitos en el mundo real, con miles de imágenes de cada uno de los 10 dígitos escritos con todo tipo de inclinaciones, caligrafías, etc.

    Para inyectar conocimiento sobre dígitos, el equipo construyó un conjunto de características a priori que consideraron significativas, en otras palabras, un conjunto de "lentes" a través de los cuales la red vería los dígitos, y obligó a la máquina a elegir entre estos lentes para mirar las imágenes. El número de imágenes (es decir, el tiempo) necesario para que la red neuronal mejorada con TDA aprenda a distinguir cinco de siete, por mal escrito que sea, manteniendo su poder predictivo, se redujo a menos de 50.

    "Lo que describimos matemáticamente en nuestro estudio es cómo hacer cumplir ciertas simetrías, y esto proporciona una estrategia para crear agentes de aprendizaje automático que sean capaces de aprender características destacadas de algunos ejemplos aprovechando el conocimiento inyectado como restricciones, "dice Bergomi.

    ¿Significa esto que el funcionamiento interno de las máquinas de aprendizaje que imitan al cerebro se volverá más transparente en el futuro? ¿Permitir nuevos conocimientos sobre el funcionamiento interno del cerebro mismo? En todo caso, este es uno de los objetivos de Bergomi. "La inteligibilidad de la inteligencia artificial es necesaria para su interacción e integración con la inteligencia biológica, ", dice. Actualmente está trabajando, en colaboración con su colega Pietro Vertechi, en el desarrollo de un nuevo tipo de arquitectura de red neuronal que permitirá a los humanos inyectar rápidamente conocimientos de alto nivel en estas redes para controlar y acelerar su entrenamiento.


    © Ciencia https://es.scienceaq.com