Action Schema Networks (ASNets) podría hipotéticamente permitir que un robot aprenda a navegar por un piso con 10 habitaciones, y luego poder deambular por un piso con miles de habitaciones. Crédito:Universidad Nacional de Australia
Investigadores de la Universidad Nacional de Australia (ANU) han diseñado un nuevo tipo de sistema inteligente basado en el aprendizaje profundo que puede aprender a resolver problemas en la toma de decisiones. incluyendo problemas más complejos de los que ha sido capacitado para resolver.
El aprendizaje profundo es una técnica de inteligencia artificial popular para tareas como crear leyendas para describir imágenes, transcribir voz a texto y aprender a jugar video o juegos de mesa solo a partir de imágenes.
El investigador principal Sam Toyer dijo que el sistema, llamado Action Schema Networks (ASNets), hipotéticamente podría permitir que un robot aprenda a navegar por un piso con 10 habitaciones, y luego poder deambular por un piso con miles de habitaciones.
"La capacidad de ASNets para resolver problemas mucho más grandes es un cambio de juego, "dijo el Sr. Toyer, quien desarrolló ASNets como parte de su tesis durante su Licenciatura en Computación Avanzada (Investigación y Desarrollo) en ANU y recibió una Medalla Universitaria.
"Con nuestro sistema basado en ASNet, potencialmente podríamos crear nuevas aplicaciones de ciberseguridad que encuentren vulnerabilidades del sistema, o diseñar un nuevo software de robótica para realizar tareas especializadas en almacenes automatizados o misiones espaciales no tripuladas ".
Toyer dijo que los sistemas inteligentes se basaban en la tecnología de planificación automatizada para tomar decisiones.
"Ya sea que se trate de un rover de Marte que elige dónde tomar las fotos, o una red inteligente que decide cómo aislar una falla, necesita un algoritmo de planificación para elegir el mejor curso de acción ".
Toyer dijo que algunos sistemas basados en aprendizaje profundo, incluido AlphaGo, se había utilizado para resolver problemas de toma de decisiones.
"AlphaGo, que logró una habilidad sobrehumana en el juego de Go, es un ejemplo reciente y conocido, " él dijo.
"Sin embargo, sistemas como AlphaGo solo pueden jugar el juego en un tamaño de tablero fijo.
"A diferencia de, Las ASNets pueden aprender a resolver problemas de tamaño variable. Esto les permite aprender rápidamente lo que necesitan saber en pequeño, problemas fáciles, luego transfiera ese conocimiento directamente a problemas mucho mayores sin volver a capacitarse ".
El co-investigador Dr. Felipe Trevizan de ANU y Data61 de CSIRO dijo que ASNet no compitió contra un adversario como lo hace AlphaGo.
"Bastante, se especializa en la resolución de problemas en entornos dinámicos e inciertos, " él dijo.
Profesora Sylvie Thiébaux, uno de los académicos de ANU que supervisa la tesis del Sr.Toyer, dijo que la investigación era una prueba de concepto, que podría desarrollarse aún más con la industria para su uso en robótica inteligente para realizar tareas de forma autónoma en una amplia gama de entornos.
Ella dijo que el sistema aprendió a jugar un juego para organizar hasta 35 bloques en una formación en particular, habiendo recibido solo 25 problemas usando hasta nueve bloques como parte de su entrenamiento.
"Dimos a ASNets una descripción del juego, algunos ejemplos de planes para problemas simples con una pequeña cantidad de bloques, y luego aprendió a resolver problemas mucho más complejos, ", dijo el profesor Thiébaux de la Escuela de Investigación de Ciencias de la Computación de la ANU.
Profesora asociada Lexing Xie de la Escuela de Investigación de Ciencias de la Computación de ANU, quien co-supervisó la tesis del Sr. Toyer, dijo que ASNets era una forma creativa de utilizar el aprendizaje profundo.
"Este trabajo es el primero en tomar prestados diseños de reconocimiento visual para resolver problemas de toma de decisiones que se ven muy diferentes en la naturaleza, pero comparten estructuras lógicas, " ella dijo.