• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • Caché semántico para análisis de imágenes habilitado por IA

    Diagrama de bloques del servicio de caché semántica. Crédito:IBM

    La disponibilidad de alta resolución, sensores económicos han aumentado exponencialmente la cantidad de datos que se producen, lo que podría abrumar la Internet existente. Esto ha llevado a la necesidad de contar con capacidad informática para procesar los datos cerca de donde se generan, en los bordes de la red, en lugar de enviarlo a los centros de datos en la nube. Computación de borde, como esto se conoce, no solo reduce la presión sobre el ancho de banda, sino que también reduce la latencia de obtener inteligencia a partir de datos sin procesar. Sin embargo, La disponibilidad de recursos en el perímetro es limitada debido a la falta de economías de escala que hagan que la infraestructura de nube sea rentable de administrar y ofrecer.

    El potencial de la computación en el borde no es más obvio que con el análisis de video. Las cámaras de video de alta definición (1080p) se están convirtiendo en algo común en dominios como la vigilancia y, dependiendo de la velocidad de fotogramas y la compresión de datos, puede producir 4-12 megabits de datos por segundo. Las cámaras de resolución 4K más nuevas producen datos sin procesar del orden de gigabits por segundo. El requisito de información en tiempo real sobre tales transmisiones de video está impulsando el uso de técnicas de inteligencia artificial como redes neuronales profundas para tareas que incluyen clasificación, detección y extracción de objetos, y detección de anomalías.

    En nuestro documento de la conferencia Hot Edge 2018 "Shadow Puppets:Inferencia de IA precisa a nivel de nube a la velocidad y economía de Edge, "nuestro equipo de IBM Research - Irlanda evaluó experimentalmente el rendimiento de una de esas cargas de trabajo de IA, clasificación de objetos, utilizando servicios alojados en la nube disponibles comercialmente. El mejor resultado que pudimos obtener fue una salida de clasificación de 2 cuadros por segundo, que está muy por debajo de la tasa de producción de video estándar de 24 cuadros por segundo. La ejecución de un experimento similar en un dispositivo de borde representativo (NVIDIA Jetson TK1) logró los requisitos de latencia, pero consumió la mayoría de los recursos disponibles en el dispositivo en este proceso.

    Rompemos esta dualidad proponiendo el Caché Semántico, un enfoque que combina la baja latencia de las implementaciones de borde con los recursos casi infinitos disponibles en la nube. Usamos la conocida técnica de almacenamiento en caché para enmascarar la latencia mediante la ejecución de inferencia de IA para una entrada en particular (por ejemplo, fotograma de video) en la nube y almacenando los resultados en el borde contra una "huella digital". o un código hash, basado en características extraídas de la entrada.

    Este esquema está diseñado de manera que las entradas que son semánticamente similares (por ejemplo, pertenecientes a la misma clase) tendrán huellas dactilares que están "cerca" entre sí, según alguna medida de distancia. La figura 1 muestra el diseño de la caché. El codificador crea la huella dactilar de un fotograma de vídeo de entrada y busca en la caché huellas dactilares dentro de una distancia específica. Si hay una coincidencia, luego, los resultados de la inferencia se proporcionan desde la caché, evitando así la necesidad de consultar el servicio de IA que se ejecuta en la nube.

    Encontramos las huellas dactilares análogas a las marionetas de sombras, Proyecciones bidimensionales de figuras en una pantalla creada por una luz de fondo. Cualquiera que haya usado sus dedos para crear títeres de sombras dará fe de que la ausencia de detalles en estas figuras no restringe su capacidad para ser la base de una buena narración. Las huellas digitales son proyecciones de la entrada real que se pueden utilizar para aplicaciones de IA enriquecidas incluso en ausencia de detalles originales.

    Hemos desarrollado una completa prueba de implementación de concepto de la caché semántica, siguiendo un enfoque de diseño "como servicio", y exponer el servicio a usuarios de dispositivos de borde / pasarela a través de una interfaz REST. Nuestras evaluaciones en una variedad de dispositivos de borde diversos (Raspberry Pi 3 / NVIDIA Jetson TK1 / TX1 / TX2) han demostrado que la latencia de la inferencia se ha reducido en 3 veces y el uso de ancho de banda en al menos un 50 por ciento en comparación con una nube. única solución.

    La evaluación temprana de la implementación de un primer prototipo de nuestro enfoque muestra su potencial. Seguimos madurando el enfoque inicial, priorizar la experimentación con técnicas de codificación alternativas para mejorar la precisión, al tiempo que amplía la evaluación a más conjuntos de datos y tareas de IA.

    Prevemos que esta tecnología tenga aplicaciones en el comercio minorista, mantenimiento predictivo para instalaciones industriales, y videovigilancia, entre otros. Por ejemplo, la caché semántica podría usarse para almacenar huellas dactilares de imágenes de productos en las cajas. Esto se puede utilizar para evitar pérdidas en la tienda debido a robos o escaneos incorrectos. Nuestro enfoque sirve como un ejemplo de cambio sin problemas entre los servicios en la nube y en el borde para ofrecer las mejores soluciones de inteligencia artificial en el borde.

    Esta historia se vuelve a publicar por cortesía de IBM Research. Lea la historia original aquí.




    © Ciencia https://es.scienceaq.com