• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • Intel:el evento Hot Chips detalla los procesadores de inteligencia artificial

    Crédito:CC0 Public Domain

    Los observadores de tecnología de esta semana pudieron escuchar el impresionante trabajo de aceleración de IA en Intel, a saber, revelaciones en el evento Hot Chips 2019, donde Intel presentó detalles de sus procesadores de red neuronal Nervana, (1) NNP-T para entrenamiento y (2) NNP-I para inferencia.

    Primero revisemos el trabajo de inferencia (Spring Hill), y NNP-1, habiendo sido desarrollado en sus instalaciones en Haifa, Israel. NNP-1 son las siglas en inglés de Procesador de red neuronal para inferencia.

    Su construcción le permitirá "hacer frente a grandes cargas de trabajo utilizando cantidades mínimas de energía, "dijo Steven Scheer, Reuters.

    Describiendo su función, Ravie Lakshmananin, TNW, dijo que "apunta específicamente al aspecto de inferencia de la IA para deducir nuevos conocimientos. Al hacer uso de un motor de cálculo de inferencia de IA especialmente diseñado, NNP-I ofrece un mayor rendimiento con menos energía ".

    ¿De dónde viene el nombre Nervana? Nervana Systems es la empresa que adquirió en 2016. En ese momento, el analista Karl Freund dijo EE Times que tenía mucho sentido para Intel hacerlo. Adquirir Nervana fue una forma de ingresar al mercado del aprendizaje profundo.

    Esta semana, la pregunta de por qué se convirtió en un por qué no por un portavoz de Intel.

    "Para llegar a una situación futura de 'IA en todas partes', Tenemos que lidiar con grandes cantidades de datos generados y asegurarnos de que las organizaciones estén equipadas con lo que necesitan para hacer un uso efectivo de los datos y procesarlos donde se recopilan. "dijo Naveen Rao, fundador de Nervana y ahora director general del grupo de productos de inteligencia artificial de Intel, en un informe de Reuters. "Estas computadoras necesitan aceleración para aplicaciones complejas de IA".

    Vigilantes de tecnología, incluidos SiliconANGLE estaban diciendo que el NNP-1 era bueno para grandes centros de datos que ejecutan cargas de trabajo de IA. Fossbytes dijo que un conjunto completo de características de RAS tenía como objetivo garantizar que se pueda implementar fácilmente en los centros de datos existentes.

    Joel Hruska en ExtremeTech :"Intel afirma que el NNP-I puede ofrecer un rendimiento ResNet50 de 3, 600 inferencias por segundo cuando se ejecuta a un TDP de 10W. Eso equivale a 4.8 TOPS / vatio, que cumple con los objetivos generales de eficiencia de Intel (la empresa afirma que NNP-I es más eficiente con potencias más bajas) ".

    El otro tema de interés en la conferencia Hot Chips 2019 fue el NNP-T, que son las siglas de Intel Nervana Neural Network Processor for Training. Intel describió el NNP-T (nombre en código Spring Crest) como diseñado específicamente (1) para entrenar modelos complejos de aprendizaje profundo a escala masiva, y (2) simplificar la capacitación distribuida con soporte de escalamiento horizontal listo para usar.

    Paul Alcorn, Hardware de Tom , escribió sobre cómo "el NNP-T está diseñado para escalar sin pegamento de un chasis a otro, e incluso de rack a rack, sin conmutador ". Dijo que la red se diseñó especialmente teniendo en cuenta un ancho de banda alto y una latencia baja; la arquitectura es para manejar "modelos masivos que escalan a 5 u 8 mil millones de parámetros, o más allá ".

    Naveen Rao comentó:"Intel Nervana NNP-T traspasa los límites del entrenamiento de aprendizaje profundo. Está construido para priorizar dos consideraciones clave del mundo real:cómo entrenar una red lo más rápido posible y cómo hacerlo dentro de un presupuesto de energía dado". La arquitectura se construyó desde cero, sin cargas de trabajo heredadas que admitir.

    En el panorama general, Los tiempos de Israel dijo "Empresas como Intel, Nvidia, Qualcomm, Google y las empresas emergentes de todo el mundo están a la caza de nuevas tecnologías en este campo, lo que implica, entre otras cosas, crear el hardware para permitir el procesamiento de grandes cantidades de información ".

    El hardware de procesamiento tiene dos propósitos, escribió Shoshanna Solomon:(1) entrenar a las computadoras para que realicen nuevas tareas y (2) enseñarles a inferir y, por lo tanto, a obtener conocimientos.

    Considerándolo todo, Intel está aportando su granito de arena para permitir que los científicos de datos hagan ambas cosas mientras trabajan con datos no estructurados y complejos.

    © 2019 Science X Network




    © Ciencia https://es.scienceaq.com