La arquitectura de cómputo en memoria sin transistores permite tres tareas computacionales esenciales para las aplicaciones de IA:búsqueda, almacenamiento y operaciones de redes neuronales. Crédito:Nano letras (2022). DOI:10.1021/acs.nanolett.2c03169
La inteligencia artificial presenta un gran desafío para la arquitectura informática convencional. En los modelos estándar, el almacenamiento de la memoria y la computación se realizan en diferentes partes de la máquina, y los datos deben moverse desde su área de almacenamiento a una CPU o GPU para su procesamiento.
El problema con este diseño es que el movimiento lleva tiempo. Demasiado tiempo. Puede tener la unidad de procesamiento más potente del mercado, pero su rendimiento se verá limitado ya que permanece inactivo esperando datos, un problema conocido como "pared de memoria" o "cuello de botella".
Cuando la computación supera la transferencia de memoria, la latencia es inevitable. Estos retrasos se convierten en problemas graves cuando se trata de enormes cantidades de datos esenciales para el aprendizaje automático y las aplicaciones de IA.
A medida que el software de IA continúa desarrollándose en sofisticación y el auge del Internet de las cosas con muchos sensores produce conjuntos de datos cada vez más grandes, los investigadores se han centrado en el rediseño del hardware para ofrecer las mejoras necesarias en velocidad, agilidad y uso de energía.
Un equipo de investigadores de la Facultad de Ingeniería y Ciencias Aplicadas de la Universidad de Pensilvania, en asociación con científicos de los Laboratorios Nacionales Sandia y el Laboratorio Nacional Brookhaven, presentó una arquitectura informática ideal para la IA.
Codirigido por Deep Jariwala, Profesor Asistente en el Departamento de Ingeniería Eléctrica y de Sistemas (ESE), Troy Olsson, Profesor Asociado en ESE, y Xiwen Liu, Ph.D. candidato en el Laboratorio de Ingeniería e Investigación de Dispositivos de Jarawala, el grupo de investigación se basó en un enfoque conocido como computación en memoria (CIM).
En las arquitecturas CIM, el procesamiento y el almacenamiento ocurren en el mismo lugar, lo que elimina el tiempo de transferencia y minimiza el consumo de energía. El nuevo diseño CIM del equipo, objeto de un estudio reciente publicado en Nano Letters , se destaca por estar completamente libre de transistores. Este diseño está en sintonía única con la forma en que las aplicaciones Big Data han transformado la naturaleza de la informática.
"Incluso cuando se usan en una arquitectura de cómputo en memoria, los transistores comprometen el tiempo de acceso a los datos", dice Jariwala. "Requieren una gran cantidad de cableado en el circuito general de un chip y, por lo tanto, usan más tiempo, espacio y energía de lo que querríamos para las aplicaciones de IA. La belleza de nuestro diseño sin transistores es que es simple, pequeño y rápido. y requiere muy poca energía".
El avance no es solo en el diseño a nivel de circuito. Esta nueva arquitectura informática se basa en el trabajo anterior del equipo en ciencia de materiales centrado en un semiconductor conocido como nitruro de aluminio con aleación de escandio (AlScN). AlScN permite la conmutación ferroeléctrica, cuya física es más rápida y más eficiente energéticamente que los elementos de memoria no volátil alternativos.
"Uno de los atributos clave de este material es que puede depositarse a temperaturas lo suficientemente bajas como para ser compatible con las fundiciones de silicio", dice Olsson. "La mayoría de los materiales ferroeléctricos requieren temperaturas mucho más altas. Las propiedades especiales de AlScN significan que nuestros dispositivos de memoria demostrados pueden colocarse encima de la capa de silicio en una pila vertical heterointegrada. Piense en la diferencia entre un estacionamiento de varios pisos con capacidad para cien autos y un cientos de espacios de estacionamiento individuales repartidos en un solo lote. ¿Cuál es más eficiente en términos de espacio? Lo mismo ocurre con la información y los dispositivos en un chip altamente miniaturizado como el nuestro. Esta eficiencia es tan importante para aplicaciones que requieren restricciones de recursos, como como dispositivos portátiles o portátiles, ya que es para aplicaciones que consumen mucha energía, como los centros de datos".
En 2021, el equipo estableció la viabilidad de AlScN como una potencia de computación en memoria. Su capacidad de miniaturización, bajo costo, eficiencia de recursos, facilidad de fabricación y factibilidad comercial demostraron grandes avances a los ojos de la investigación y la industria.
En el estudio más reciente que presentó el diseño sin transistores, el equipo observó que su ferrodiodo CIM puede funcionar hasta 100 veces más rápido que una arquitectura informática convencional.
Otra investigación en el campo ha utilizado con éxito arquitecturas de cómputo en memoria para mejorar el rendimiento de las aplicaciones de IA. Sin embargo, estas soluciones han sido limitadas, incapaces de superar el equilibrio conflictivo entre rendimiento y flexibilidad. La arquitectura informática que utiliza matrices de barras transversales de memristor, un diseño que imita la estructura del cerebro humano para admitir un rendimiento de alto nivel en operaciones de redes neuronales, también ha demostrado velocidades admirables.
Sin embargo, las operaciones de redes neuronales, que utilizan capas de algoritmos para interpretar datos y reconocer patrones, son solo una de varias categorías clave de tareas de datos necesarias para la IA funcional. El diseño no es lo suficientemente adaptable para ofrecer un rendimiento adecuado en cualquier otra operación de datos de IA.
El diseño de ferrodiodo del equipo de Penn ofrece una flexibilidad innovadora que otras arquitecturas de cómputo en memoria no ofrecen. Logra una precisión superior y se desempeña igualmente bien no en una, sino en tres operaciones de datos esenciales que forman la base de las aplicaciones de IA efectivas. Es compatible con el almacenamiento en chip, o la capacidad de contener las enormes cantidades de datos necesarios para el aprendizaje profundo, la búsqueda paralela, una función que permite el filtrado y análisis de datos precisos, y la aceleración de la multiplicación de matrices, el proceso central de la computación de redes neuronales.
"Digamos", dice Jariwala, "que tiene una aplicación de inteligencia artificial que requiere una gran memoria para el almacenamiento, así como la capacidad de realizar búsquedas y reconocimiento de patrones. Piense en automóviles autónomos o robots autónomos, que deben responder de forma rápida y precisa. a entornos dinámicos e impredecibles. Al usar arquitecturas convencionales, necesitaría un área diferente del chip para cada función y consumiría rápidamente la disponibilidad y el espacio. Nuestro diseño de ferrodiodo le permite hacerlo todo en un solo lugar simplemente cambiando la forma aplicas voltajes para programarlo".
La recompensa de un chip CIM que puede adaptarse a múltiples operaciones de datos es clara:cuando el equipo ejecutó una simulación de una tarea de aprendizaje automático a través de su chip, se desempeñó con un grado de precisión comparable al software basado en IA que se ejecuta en una CPU convencional.
"Esta investigación es muy importante porque demuestra que podemos confiar en la tecnología de memoria para desarrollar chips que integran múltiples aplicaciones de datos de IA de una manera que realmente desafía las tecnologías informáticas convencionales", dice Liu, el primer autor del estudio.
El enfoque de diseño del equipo tiene en cuenta que la IA no es ni hardware ni software, sino una colaboración esencial entre los dos.
"Es importante darse cuenta de que toda la computación de IA que se realiza actualmente está habilitada por software en una arquitectura de hardware de silicio diseñada hace décadas", dice Jariwala. "Esta es la razón por la cual la inteligencia artificial como campo ha sido dominada por ingenieros informáticos y de software. Básicamente, rediseñar el hardware para la IA será el próximo gran cambio en el juego de los semiconductores y la microelectrónica. La dirección en la que nos dirigimos ahora es la del hardware y el software. codiseño".
"Diseñamos hardware que hace que el software funcione mejor", agrega Liu, "y con esta nueva arquitectura nos aseguramos de que la tecnología no solo sea rápida, sino también precisa". Una macro nvCIM de cuatro megabits para dispositivos de IA perimetrales