Crédito:Universidad de Princeton
Al cambiar una propiedad fundamental de la computación, Los investigadores de Princeton han construido un nuevo tipo de chip de computadora que aumenta el rendimiento y reduce drásticamente las demandas de energía de los sistemas utilizados para la inteligencia artificial.
El chip, que funciona con lenguajes de programación estándar, podría ser particularmente útil en teléfonos, relojes u otros dispositivos que dependen de la informática de alto rendimiento y tienen una duración limitada de la batería.
El chip, basado en una técnica llamada computación en memoria, está diseñado para eliminar un cuello de botella computacional primario que obliga a los procesadores de computadoras a gastar tiempo y energía en buscar datos de la memoria almacenada. La informática en memoria realiza cálculos directamente en el almacenamiento, permitiendo una mayor velocidad y eficiencia.
El anuncio del nuevo chip, junto con un sistema para programarlo, sigue de cerca un informe anterior de que los investigadores en colaboración con Analog Devices Inc. habían fabricado circuitos para la computación en memoria. Las pruebas de laboratorio de los circuitos demostraron que el chip funcionaría decenas a cientos de veces más rápido que los chips comparables. Sin embargo, el chip inicial no incluía todos los componentes de la versión más reciente, por lo que su capacidad era limitada.
En el nuevo anuncio, investigadores del laboratorio de Naveen Verma, un profesor asociado de ingeniería eléctrica, informan que han integrado los circuitos en memoria en una arquitectura de procesador programable. El chip ahora funciona con lenguajes informáticos comunes como C.
"El chip anterior era un motor fuerte y potente, "dijo Hongyang Jia, estudiante de posgrado en el grupo de Verma y uno de los diseñadores de chips. "Este chip es todo el coche".
Aunque podría funcionar con una amplia gama de sistemas, el chip de Princeton está diseñado para admitir sistemas diseñados para inferencias de aprendizaje profundo, algoritmos que permiten que las computadoras tomen decisiones y realicen tareas complejas aprendiendo de conjuntos de datos. Los sistemas de aprendizaje profundo dirigen cosas como automóviles autónomos, sistemas de reconocimiento facial y software de diagnóstico médico.
Verma dijo que para muchas aplicaciones, El ahorro de energía del chip sería tan crítico como el aumento de rendimiento. Esto se debe a que se espera que muchas aplicaciones de inteligencia artificial funcionen en dispositivos que funcionan con baterías, como teléfonos móviles o sensores médicos portátiles. El Apple iPhone X, por ejemplo, ya tiene un chip de IA como parte de sus circuitos. Pero, tanto los ahorros de energía como los aumentos de rendimiento solo son útiles si la amplia base de aplicaciones que los necesita puede acceder a ellos; ahí es donde entra en juego la necesidad de capacidad de programación.
"La arquitectura clásica de la computadora separa el procesador central, que procesa los datos, de la memoria, que almacena los datos, ", Dijo Verma." Gran parte de la energía de la computadora se utiliza para mover datos de un lado a otro ".
En parte, el nuevo chip es una respuesta a la promesa de desaceleración de la Ley de Moore. En 1965, El fundador de Intel, Gordon Moore, observó que la cantidad de transistores en circuitos integrados se duplicaba cada año, y la industria también notó que esos transistores se volvieron más rápidos y más eficientes energéticamente en el proceso. Por décadas, estas observaciones, que se conoció como la Ley de Moore, sustentaba una transformación en la que las computadoras se volvieron cada vez más poderosas. Pero en los últimos años los transistores no han seguido mejorando como en el pasado, topando con limitaciones fundamentales de su física.
Verma, que se especializa en el diseño de circuitos y sistemas, Pensé en formas de evitar este apretón a nivel arquitectónico en lugar de a nivel de transistores. El cálculo que necesita la IA sería mucho más eficiente si pudiera realizarse en la misma ubicación que la memoria de la computadora porque eliminaría el tiempo y la energía utilizados para buscar datos almacenados lejos. Eso haría que la computadora fuera más rápida sin actualizar los transistores. Pero la creación de un sistema así supuso un desafío. Los circuitos de memoria están diseñados lo más densamente posible para empaquetar grandes cantidades de datos. Cálculo, por otra parte, requiere que se dedique espacio para transistores adicionales.
Una opción era sustituir los transistores por componentes eléctricos llamados condensadores. Los transistores son esencialmente interruptores que usan cambios de voltaje para representar los 1 y 0 que componen las señales binarias de la computadora. Pueden hacer todo tipo de cálculos utilizando matrices de 1 y 0 dígitos, por eso los sistemas se denominan digitales. Los condensadores almacenan y liberan carga eléctrica, para que puedan representar cualquier número, no solo unos y ceros. Verma se dio cuenta de que con condensadores podía realizar cálculos en un espacio mucho más denso que con transistores.
Los condensadores también se pueden fabricar con mucha precisión en un chip, mucho más que los transistores. El nuevo diseño empareja condensadores con celdas convencionales de memoria estática de acceso aleatorio (SRAM) en un chip. La combinación de condensadores y SRAM se utiliza para realizar cálculos sobre los datos en el dominio analógico (no digital), sin embargo, de formas que sean fiables y susceptibles de incluir funciones de programabilidad. Ahora, los circuitos de memoria pueden realizar cálculos de formas dirigidas por la unidad central de procesamiento del chip.
"La informática en memoria se ha mostrado muy prometedora en los últimos años, en abordar realmente la energía y la velocidad de los sistemas informáticos, ", dijo Verma." Pero la gran pregunta ha sido si esa promesa podría escalar y ser utilizada por los diseñadores de sistemas en todas las aplicaciones de IA que realmente nos interesan. Eso hace que la programabilidad sea necesaria ".