• Home
  • Química
  • Astronomía
  • Energía
  • Naturaleza
  • Biología
  • Física
  • Electrónica
  • Aproximando un núcleo de verdad

    Los investigadores utilizaron un proceso de estimación de errores y aproximación matemática para demostrar que su kernel aproximado sigue siendo consistente con el kernel exacto. Crédito:2020 Ding et al.

    Al utilizar una función "kernel" aproximada en lugar de explícita para extraer relaciones en conjuntos de datos muy grandes, Los investigadores de KAUST han podido acelerar drásticamente la velocidad del aprendizaje automático. El enfoque promete mejorar en gran medida la velocidad de la inteligencia artificial (IA) en la era del big data.

    Cuando la IA está expuesta a un gran conjunto de datos desconocidos, necesita analizar los datos y desarrollar un modelo o función que describa las relaciones en el conjunto. El cálculo de esta función, o kernel, es una tarea computacionalmente intensiva que aumenta en complejidad cúbicamente (a la potencia de tres) con el tamaño del conjunto de datos. En la era de los macrodatos y la creciente dependencia de la inteligencia artificial para el análisis, esto presenta un problema real en el que la selección del núcleo puede consumir poco tiempo en la práctica.

    Con la supervisión de Xin Gao, Lizhong Ding y sus colegas han estado trabajando en métodos para acelerar la selección de kernel utilizando estadísticas.

    "La complejidad computacional de la selección precisa del kernel suele ser cúbica con el número de muestras, "dice Ding." Este tipo de escala cúbica es prohibitivo para big data. En cambio, hemos propuesto un enfoque de aproximación para la selección del núcleo, lo que mejora significativamente la eficiencia de la selección de kernel sin sacrificar el rendimiento predictivo ".

    El kernel verdadero o preciso proporciona una descripción literal de las relaciones en el conjunto de datos. Lo que encontraron los investigadores es que las estadísticas se pueden usar para derivar un kernel aproximado que es casi tan bueno como la versión exacta. pero se puede calcular muchas veces más rápido, escalar linealmente, en lugar de cúbicamente, con el tamaño del conjunto de datos.

    Para desarrollar el enfoque, el equipo tuvo que construir matrices de kernel diseñadas específicamente, o matrices matemáticas, que podría calcularse rápidamente. También tenían que establecer las reglas y los límites teóricos para la selección del núcleo aproximado que aún garantizaría el rendimiento del aprendizaje.

    "El principal desafío era que necesitábamos diseñar nuevos algoritmos que cumplieran estos dos puntos al mismo tiempo, "dice Ding.

    Combinando un proceso de estimación de errores y aproximación matemática, los investigadores pudieron demostrar que su kernel aproximado sigue siendo consistente con el kernel exacto y luego demostraron su desempeño en ejemplos reales.

    "Hemos demostrado que los métodos aproximados, como nuestro marco informático, proporcionar suficiente precisión para resolver un método de aprendizaje basado en kernel, sin la carga computacional impráctica de métodos precisos, ", dice Ding. Esto proporciona una solución eficaz y eficiente para los problemas de bioinformática y minería de datos que requieren escalabilidad".


    © Ciencia https://es.scienceaq.com