Investigadores de Princeton, dirigido por el profesor de ingeniería eléctrica Niraj Jha, desarrolló una técnica que produce programas avanzados de inteligencia artificial para dispositivos portátiles como un reloj inteligente. Al imitar el arco de desarrollo del cerebro, el nuevo enfoque conduce a una precisión de referencia utilizando una fracción de la energía de otros sistemas. Desde la izquierda:Prerit Terway, Hongxu Yin, Niraj Jha, Seyed Shayan Hassantabar. Crédito:Sameer A. Khan / Fotobuddy
Puede ser un shock para los padres que enfrentan el caos diario de la vida de los niños pequeños, pero la complejidad del cerebro alcanza su punto máximo alrededor de los tres años.
El número de conexiones entre neuronas prácticamente se dispara en nuestros primeros años. Después de eso, el cerebro comienza a podar las partes no utilizadas de esta vasta red eléctrica, adelgazar a aproximadamente la mitad del número cuando llegamos a la edad adulta. El sobreabastecimiento del cerebro del niño pequeño nos permite adquirir el lenguaje y desarrollar la motricidad fina. Pero lo que no usamos perdemos.
Ahora, este flujo y reflujo de la complejidad biológica ha inspirado a un equipo de investigadores de Princeton a crear un nuevo modelo de inteligencia artificial. crear programas que cumplan o superen los estándares de la industria en cuanto a precisión utilizando solo una fracción de la energía. En un par de artículos publicados a principios de este año, los investigadores mostraron cómo comenzar con un diseño simple para una red de IA, hacer crecer la red agregando neuronas y conexiones artificiales, luego pode las porciones no utilizadas dejando un producto final magro pero altamente efectivo.
"Nuestro enfoque es lo que llamamos un paradigma de cultivo y poda, ", dijo el profesor de Ingeniería Eléctrica Niraj Jha." Es similar a lo que hace un cerebro desde que somos bebés hasta que somos pequeños ". En su tercer año, el cerebro humano comienza a cortar las conexiones entre las células cerebrales. Este proceso continúa hasta la edad adulta, de modo que el cerebro completamente desarrollado opera aproximadamente a la mitad de su pico sináptico.
"El cerebro adulto está especializado en cualquier entrenamiento que le hayamos proporcionado, ", Dijo Jha." No es tan bueno para el aprendizaje de propósito general como el cerebro de un niño pequeño ".
El crecimiento y la poda dan como resultado un software que requiere una fracción de la potencia computacional, y por lo tanto usa mucha menos energía, para hacer predicciones igualmente buenas sobre el mundo. Restringir el uso de energía es fundamental para lograr que este tipo de inteligencia artificial avanzada, llamada aprendizaje automático, se coloque en dispositivos pequeños como teléfonos y relojes.
"Es muy importante ejecutar los modelos de aprendizaje automático localmente porque la transmisión [a la nube] requiere mucha energía, "dijo Xiaoliang Dai, ex estudiante de posgrado de Princeton y primer autor de los dos artículos. Dai es ahora un científico investigador en Facebook.
En el primer estudio, los investigadores volvieron a examinar los fundamentos del aprendizaje automático:las estructuras de código abstracto llamadas redes neuronales artificiales. Inspirándose en el desarrollo de la primera infancia, el equipo diseñó una herramienta de síntesis de redes neuronales (NeST) que recreó varias de las principales redes neuronales desde cero, automáticamente, utilizando modelos matemáticos sofisticados desarrollados por primera vez en la década de 1980.
NeST comienza con solo una pequeña cantidad de neuronas y conexiones artificiales, aumenta en complejidad al agregar más neuronas y conexiones a la red, y una vez que cumpla con un parámetro de rendimiento determinado, comienza a reducirse con el tiempo y el entrenamiento. Investigadores anteriores habían empleado estrategias de poda similares, pero la combinación de cultivar y podar, pasar del "cerebro del bebé" al "cerebro del niño pequeño" y adelgazar hacia el "cerebro adulto", representó un salto de la vieja teoría a la nueva demostración.
El segundo papel, que incluye colaboradores en Facebook y la Universidad de California-Berkeley, introdujo un marco llamado Chameleon que comienza con los resultados deseados y trabaja hacia atrás para encontrar la herramienta adecuada para el trabajo. Con cientos de miles de variaciones disponibles en las facetas particulares de un diseño, Los ingenieros se enfrentan a una paradoja de elección que va mucho más allá de la capacidad humana. Por ejemplo:la arquitectura para recomendar películas no se parece a la que reconoce los tumores. El sistema ajustado para el cáncer de pulmón tiene un aspecto diferente al del cáncer de cuello uterino. Los asistentes de demencia pueden verse diferentes para mujeres y hombres. Etcétera, indefinidamente.
Jha describió a Chameleon como ingenieros de dirección hacia un subconjunto favorable de diseños. "Me está dando un buen vecindario, y puedo hacerlo en minutos de CPU, "Jha dijo, refiriéndose a una medida de tiempo de proceso computacional. "Así que puedo obtener rápidamente la mejor arquitectura". En lugar de toda la metrópolis en expansión, solo hay que buscar en unas pocas calles.
Chameleon trabaja entrenando y probando un número relativamente pequeño de arquitecturas que representan una amplia variedad de opciones, luego predice el desempeño de esos diseños con un conjunto dado de condiciones. Debido a que reduce drásticamente los costos iniciales y funciona dentro de plataformas ajustadas, el enfoque altamente adaptativo "podría ampliar el acceso a las redes neuronales para las organizaciones de investigación que actualmente no tienen los recursos para aprovechar esta tecnología, "según una publicación de blog de Facebook.