Crédito:Pixabay / CC0 Public Domain
Un tipo de computación relativamente nuevo que imita la forma en que funciona el cerebro humano ya estaba transformando la forma en que los científicos podían abordar algunos de los problemas de procesamiento de información más difíciles.
Ahora, Los investigadores han encontrado una manera de hacer que lo que se llama computación de yacimientos funcione entre 33 y un millón de veces más rápido. con significativamente menos recursos informáticos y menos entrada de datos necesaria.
De hecho, en una prueba de esta computación de yacimientos de próxima generación, Los investigadores resolvieron un problema informático complejo en menos de un segundo en una computadora de escritorio.
Usando la tecnología de vanguardia ahora actual, el mismo problema requiere una supercomputadora para resolverlo y aún lleva mucho más tiempo, dijo Daniel Gauthier, autor principal del estudio y profesor de física en la Universidad Estatal de Ohio.
"Podemos realizar tareas de procesamiento de información muy complejas en una fracción del tiempo utilizando muchos menos recursos informáticos en comparación con lo que puede hacer actualmente la computación de yacimientos". "Dijo Gauthier.
"Y la computación de yacimientos ya fue una mejora significativa de lo que antes era posible".
El estudio fue publicado hoy en la revista Comunicaciones de la naturaleza .
La computación de reservorios es un algoritmo de aprendizaje automático desarrollado a principios de la década de 2000 y que se utiliza para resolver los problemas informáticos "más difíciles de los más difíciles". como pronosticar la evolución de sistemas dinámicos que cambian con el tiempo, Dijo Gauthier.
Sistemas dinámicos, como el clima, son difíciles de predecir porque solo un pequeño cambio en una condición puede tener efectos masivos en el futuro, él dijo.
Un ejemplo famoso es el "efecto mariposa, "en el que, en una ilustración metafórica, los cambios creados por una mariposa que agita sus alas pueden eventualmente influir en el clima semanas después.
Investigaciones anteriores han demostrado que la computación de yacimientos es adecuada para aprender sistemas dinámicos y puede proporcionar pronósticos precisos sobre cómo se comportarán en el futuro. Dijo Gauthier.
Lo hace mediante el uso de una red neuronal artificial, algo así como un cerebro humano. Los científicos introducen datos en una red dinámica en un "depósito" de neuronas artificiales conectadas al azar en una red. La red produce resultados útiles que los científicos pueden interpretar y retroalimentar a la red, construir un pronóstico cada vez más preciso de cómo evolucionará el sistema en el futuro.
Cuanto más grande y complejo sea el sistema y más preciso que los científicos quieran que sea el pronóstico, cuanto más grande debe ser la red de neuronas artificiales y más recursos informáticos y tiempo se necesitan para completar la tarea.
Un problema ha sido que el reservorio de neuronas artificiales es una "caja negra, "Gauthier dijo, y los científicos no han sabido exactamente qué sucede dentro de él, solo saben que funciona.
Las redes neuronales artificiales en el corazón de la computación de yacimientos se basan en las matemáticas, Gauthier explicó.
"Hicimos que los matemáticos miraran estas redes y preguntaran:'¿Hasta qué punto son realmente necesarias todas estas piezas de la maquinaria?' ", Dijo.
En este estudio, Gauthier y sus colegas investigaron esa pregunta y encontraron que todo el sistema de computación de yacimientos podría simplificarse enormemente, reduciendo drásticamente la necesidad de recursos informáticos y ahorrando un tiempo significativo.
Probaron su concepto en una tarea de pronóstico que involucraba un sistema meteorológico desarrollado por Edward Lorenz, cuyo trabajo condujo a nuestra comprensión del efecto mariposa.
Su computación de yacimientos de próxima generación fue un claro ganador sobre el estado de la técnica actual en esta tarea de pronóstico de Lorenz. En una simulación relativamente simple realizada en una computadora de escritorio, el nuevo sistema era de 33 a 163 veces más rápido que el modelo actual.
Pero cuando el objetivo era una gran precisión en el pronóstico, la computación de yacimientos de próxima generación fue aproximadamente 1 millón de veces más rápida. Y la informática de nueva generación logró la misma precisión con el equivalente a solo 28 neuronas, comparado con el 4, 000 que necesita el modelo de la generación actual, Dijo Gauthier.
Una razón importante para la aceleración es que el "cerebro" detrás de esta próxima generación de computación de reservorios necesita mucho menos calentamiento y entrenamiento en comparación con la generación actual para producir los mismos resultados.
El calentamiento son datos de entrenamiento que deben agregarse como entrada a la computadora del yacimiento para prepararla para su tarea real.
"Para nuestra computación de yacimientos de próxima generación, casi no se necesita tiempo de calentamiento, "Dijo Gauthier.
"En la actualidad, los científicos tienen que poner 1, 000 o 10, 000 puntos de datos o más para calentarlo. Y esos son todos los datos que se pierden eso no es necesario para el trabajo real. Solo tenemos que poner uno o dos o tres puntos de datos, " él dijo.
Y una vez que los investigadores estén listos para entrenar la computadora del yacimiento para hacer el pronóstico, de nuevo, se necesitan muchos menos datos en el sistema de próxima generación.
En su prueba de la tarea de pronóstico de Lorenz, los investigadores pudieron obtener los mismos resultados usando 400 puntos de datos que la generación actual producida usando 5, 000 puntos de datos o más, dependiendo de la precisión deseada.
"Lo que es emocionante es que esta próxima generación de computación de yacimientos toma lo que ya era muy bueno y lo hace significativamente más eficiente. "Dijo Gauthier.
Él y sus colegas planean ampliar este trabajo para abordar problemas informáticos aún más difíciles, como pronosticar la dinámica de fluidos.
"Es un problema increíblemente desafiante de resolver. Queremos ver si podemos acelerar el proceso de resolución de ese problema utilizando nuestro modelo simplificado de computación de yacimientos".
Los coautores del estudio fueron Erik Bollt, profesor de ingeniería eléctrica e informática en la Universidad de Clarkson; Aaron Griffith, quien recibió su Ph.D. en física en el estado de Ohio; y Wendson Barbosa, investigador postdoctoral en física en el estado de Ohio.