Crédito:CC0 Public Domain
El cerebro y todas sus magníficas capacidades funcionan con menos de 20 vatios. Deténgase a pensar en eso por un segundo. Mientras escribo este blog, mi computadora portátil está usando aproximadamente 80 vatios, sin embargo, a solo una cuarta parte de la potencia, nuestro cerebro supera a las supercomputadoras de última generación en varios órdenes de magnitud en lo que respecta a la eficiencia energética y el volumen. La naturaleza es verdaderamente extraordinaria.
Por esta razón, no debería sorprender que los científicos de todo el mundo estén buscando inspiración en el cerebro humano como una vía prometedora hacia el desarrollo de sistemas informáticos de inteligencia artificial de próxima generación y, si bien la industria de las TI ha logrado un progreso significativo en los últimos años, particularmente en el uso del aprendizaje automático para la visión por computadora y el reconocimiento de voz, la tecnología actual está chocando contra una pared cuando se trata de redes neuronales profundas que coinciden con la eficiencia energética de su contraparte biológica, pero esto podría estar a punto de cambiar.
Como se informó la semana pasada en Comunicaciones de la naturaleza , mis colegas y yo en IBM Research y colaboradores en EPFL y el Instituto de Tecnología de Nueva Jersey hemos desarrollado y probado experimentalmente una arquitectura de sinapsis artificial utilizando 1 millón de dispositivos, un paso significativo hacia la realización de tecnología de computación neuromórfica a gran escala y energéticamente eficiente.
Cuando el brillante científico John von Neumann construyó la arquitectura informática actual, que alimenta casi el 100 por ciento de las computadoras del mundo, mantuvo la memoria y el procesamiento por separado. Esto significa que los datos deben ir y venir constantemente, generar calor y requerir mucha energía, es un cuello de botella de eficiencia. El cerebro, por supuesto, no tiene compartimentos diferentes, por eso es tan eficiente. Pero esto no disuadió a los equipos de seguir con el diseño de von Neumann para construir una red neuronal y, aunque tienen cierto éxito, la eficiencia de estos sistemas sigue siendo baja, simplemente no se puede vencer a la naturaleza.
Más recientemente, científicos, incluidos los de IBM, han adoptado un enfoque diferente basado en una nueva clase de dispositivos a nanoescala conocidos como dispositivos memristivos, que han demostrado ser muy prometedores para abordar este cuello de botella. El diseño de nuestro dispositivo se basa en algo llamado memoria de cambio de fase (PCM), posiblemente la tecnología de memoria no volátil emergente más avanzada. Se aplica un pulso eléctrico al material, que cambia la conductancia del dispositivo a través de sus propiedades físicas.
Como se explica en nuestro artículo:"Los dispositivos memristivos, como los dispositivos PCM, almacenan información en sus estados de resistencia / conductancia y exhiben modulación de conductividad según el historial de programación. La idea central en la construcción de hardware cognitivo basado en dispositivos memristivos es almacenar los pesos sinápticos como su estados de conductancia y para realizar las tareas computacionales asociadas en su lugar. modulación precisa de la conductancia del dispositivo en un amplio rango dinámico, necesario para mantener una alta precisión de la red, está demostrando ser un desafío ".
Nuestro avance está en nuestro diseño, lo que llamamos una arquitectura sináptica multi-memristiva. Esta arquitectura nos permite aumentar la precisión sináptica sin aumentar la densidad de potencia, aunque usamos varios dispositivos memristivos para representar una sinapsis. El truco es que tenemos un buen mecanismo de selección, basado en un contador global, que le dice al dispositivo que necesita cambiar y cuándo. La única penalización o costo es el requisito de más espacio para los dispositivos PCM adicionales.
Para probar nuestra arquitectura, entrenamos redes neuronales con picos y sin picos. Nuestros datos seleccionados son populares:el conjunto de datos MNIST de dígitos escritos a mano y nuestra tarea es el reconocimiento de dígitos escritos a mano, esencialmente nuestra red necesita reconocer qué número aparece en las imágenes escritas a mano. En ambos casos, vemos que la sinapsis multi-memristiva supera significativamente las arquitecturas diferenciales convencionales con dos dispositivos, ilustrando claramente la efectividad de la arquitectura propuesta. Un punto culminante del trabajo es una demostración experimental de la arquitectura sináptica multimemristiva en una red neuronal de picos que utiliza más de 1 millón de dispositivos de memoria de cambio de fase.
La arquitectura es aplicable a una amplia gama de redes neuronales y tecnologías memristivas y es compatible con barras cruzadas. La arquitectura propuesta y su demostración experimental son un paso significativo hacia la realización de sistemas altamente eficientes, redes neuronales a gran escala basadas en dispositivos memristivos con características no ideales observadas experimentalmente. Una vez dicho esto, también estamos enfocados en mejorar el dispositivo memristive en sí, es precisión y rango dinámico y luego pensamos que podemos apuntar al santo grial:rendimiento de punto flotante.