• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • Los científicos de IBM demuestran la computación en memoria con 1 millón de dispositivos para aplicaciones en IA

    Un millón de procesos se asignan a los píxeles de un boceto en blanco y negro de 1000 × 1000 píxeles de Alan Turing. Los píxeles se encienden y apagan de acuerdo con los valores binarios instantáneos de los procesos. Crédito:Nature Communications

    La "computación en memoria" o "memoria computacional" es un concepto emergente que utiliza las propiedades físicas de los dispositivos de memoria para almacenar y procesar información. Esto es contrario a los sistemas y dispositivos actuales de von Neumann, como computadoras de escritorio estándar, portátiles e incluso teléfonos móviles, que transportan datos de un lado a otro entre la memoria y la unidad de computación, haciéndolos más lentos y menos eficientes energéticamente.

    Hoy dia, IBM Research anuncia que sus científicos han demostrado que un algoritmo de aprendizaje automático no supervisado, funcionando en un millón de dispositivos de memoria de cambio de fase (PCM), encontró correlaciones temporales con éxito en flujos de datos desconocidos. En comparación con las computadoras clásicas de última generación, Se espera que este prototipo de tecnología produzca mejoras 200x en velocidad y eficiencia energética. lo que lo hace muy adecuado para permitir ultradenso, de baja potencia y sistemas de computación masivamente paralelos para aplicaciones en IA.

    Los investigadores utilizaron dispositivos PCM hechos de una aleación de telururo de germanio y antimonio, que se apila y se intercala entre dos electrodos. Cuando los científicos aplican una pequeña corriente eléctrica al material, lo calientan, que altera su estado de amorfo (con una disposición atómica desordenada) a cristalino (con una configuración atómica ordenada). Los investigadores de IBM han utilizado la dinámica de cristalización para realizar cálculos en el lugar.

    "Este es un importante paso adelante en nuestra investigación de la física de la IA, que explora nuevos materiales de hardware, dispositivos y arquitecturas, "dice el Dr. Evangelos Eleftheriou, miembro de IBM y coautor del artículo. "A medida que las leyes de escalamiento de CMOS se rompen debido a los límites tecnológicos, Se necesita una desviación radical de la dicotomía procesador-memoria para sortear las limitaciones de las computadoras actuales. Dada la sencillez, alta velocidad y baja energía de nuestro enfoque de computación en memoria, es notable que nuestros resultados sean tan similares a nuestro enfoque clásico de referencia ejecutado en una computadora von Neumann ".

    Crédito:IBM Blog Research

    Los detalles se explican en su artículo que aparece hoy en la revista de revisión por pares. Comunicaciones de la naturaleza . Para demostrar la tecnología, los autores eligieron dos ejemplos basados ​​en el tiempo y compararon sus resultados con los métodos tradicionales de aprendizaje automático, como la agrupación en clústeres de k-medias:

    • Datos simulados:un millón de procesos aleatorios binarios (0 o 1) organizados en una cuadrícula 2-D basada en 1000 x 1000 píxeles, en blanco y negro, dibujo de perfil del famoso matemático británico Alan Turing. Luego, los científicos de IBM hicieron que los píxeles parpadearan con la misma velocidad, pero los píxeles negros se encienden y apagan de una manera débilmente correlacionada. Esto significa que cuando un píxel negro parpadea, Existe una probabilidad ligeramente mayor de que otro píxel negro también parpadee. Los procesos aleatorios se asignaron a un millón de dispositivos PCM, y se implementó un algoritmo de aprendizaje simple. Con cada parpadeo la matriz PCM aprendida, y los dispositivos PCM correspondientes a los procesos correlacionados pasaron a un estado de alta conductancia. De este modo, el mapa de conductancia de los dispositivos PCM recrea el dibujo de Alan Turing. (ver imagen de arriba)
    • Datos del mundo real:datos de precipitaciones reales, recopilados durante un período de seis meses de 270 estaciones meteorológicas en los EE. UU. en intervalos de una hora. Si llovió dentro de una hora, estaba etiquetado como "1" y si no era "0". La agrupación clásica de k-medias y el enfoque de computación en memoria acordaron la clasificación de 245 de las 270 estaciones meteorológicas. La computación en memoria clasificó 12 estaciones como no correlacionadas que habían sido marcadas como correlacionadas por el enfoque de agrupamiento de k-medias. Similar, el enfoque de computación en memoria clasificó 13 estaciones como correlacionadas que habían sido marcadas como no correlacionadas por la agrupación de k-medias.

    "Hasta ahora, la memoria ha sido vista como un lugar donde simplemente almacenamos información. Pero en este trabajo, mostramos de manera concluyente cómo podemos explotar la física de estos dispositivos de memoria para realizar también una primitiva computacional de alto nivel. El resultado del cálculo también se almacena en los dispositivos de memoria, y en este sentido, el concepto está vagamente inspirado en cómo calcula el cerebro ", dijo el Dr. Abu Sebastian, científico exploratorio de memoria y tecnologías cognitivas, IBM Research y autor principal del artículo.

    Una ilustración esquemática del algoritmo informático en memoria. Crédito:IBM Research




    © Ciencia https://es.scienceaq.com