Un tipo de computación relativamente nuevo que imita la forma en que funciona el cerebro humano ha aportado una nueva forma de resolver los problemas informáticos más difíciles.
Investigadores de la Universidad de Ohio State han conseguido que la computación de reservorio funcione entre 33 y un millón de veces más rápido, con significativamente menos recursos informáticos y menos entrada de datos necesaria.
También te puede interesar:
En una prueba de esta computación de reservorio de próxima generación, los investigadores resolvieron un complejo problema de computación en menos de un segundo en una computadora de sobremesa.
Usando la tecnología de vanguardia actual, el mismo problema requiere una supercomputadora para resolver y aún lleva mucho más tiempo, dijo en un comunicado Daniel Gauthier, autor principal del estudio y profesor de física en Ohio State.
“Podemos realizar tareas de procesamiento de información muy complejas en una fracción del tiempo utilizando muchos menos recursos informáticos en comparación con lo que puede hacer actualmente la computación de reservorio”, dijo Gauthier. “Y la computación de reservorio ya fue una mejora significativa de lo que antes era posible”.
El estudio fue publicado en la revista Nature Communications.
La computación de reservorio es un algoritmo de aprendizaje automático desarrollado a principios de la década de 2000 y utilizado para resolver los problemas informáticos “más difíciles entre los difíciles”, como pronosticar la evolución de los sistemas dinámicos que cambian con el tiempo, dijo Gauthier.
Predecir sistemas dinámicos
Los sistemas dinámicos, como el clima, son difíciles de predecir porque solo un pequeño cambio en una condición puede tener efectos masivos en el futuro, dijo.
Un ejemplo famoso es el “efecto mariposa”, en el que, en una ilustración metafórica, los cambios creados por una mariposa que agita sus alas pueden eventualmente influir en el clima semanas después.
Investigaciones anteriores han demostrado que la computación de reservorio es adecuada para aprender sistemas dinámicos y puede proporcionar pronósticos precisos sobre cómo se comportarán en el futuro, dijo Gauthier.
Lo hace mediante el uso de una red neuronal artificial, algo así como un cerebro humano. Los científicos introducen datos en una red dinámica en un “depósito” de neuronas artificiales conectadas al azar en una red. La red produce resultados útiles que los científicos pueden interpretar y retroalimentar a la red, construyendo un pronóstico cada vez más preciso de cómo evolucionará el sistema en el futuro.
Cuanto más grande y complejo sea el sistema y más preciso que los científicos quieran que sea el pronóstico, más grande debe ser la red de neuronas artificiales y más recursos informáticos y tiempo se necesitan para completar la tarea.
Un problema ha sido que la reserva de neuronas artificiales es una “caja negra”, dijo Gauthier, y los científicos no han sabido exactamente qué sucede dentro de ella, solo saben que funciona.
Las redes neuronales artificiales en el corazón de la computación de reservorio se basan en las matemáticas, explicó Gauthier. “Hicimos que los matemáticos observaran estas redes y se preguntaran: ‘¿Hasta qué punto son realmente necesarias todas estas piezas de la maquinaria?’”, dijo.
En este estudio, Gauthier y sus colegas investigaron esa pregunta y encontraron que todo el sistema de computación del yacimiento podría simplificarse enormemente, reduciendo drásticamente la necesidad de recursos de computación y ahorrando un tiempo significativo.
Probaron su concepto en una tarea de pronóstico que involucraba un sistema meteorológico desarrollado por Edward Lorenz, cuyo trabajo condujo a la comprensión del efecto mariposa.
Su computación de reservorio de próxima generación fue un claro ganador sobre el estado de la técnica actual en esta tarea de pronóstico de Lorenz. En una simulación relativamente simple realizada en una computadora de sobremesa, el nuevo sistema fue de 33 a 163 veces más rápido que el modelo actual.
Pero cuando el objetivo era una gran precisión en el pronóstico, la computación de reservorio de próxima generación fue aproximadamente 1 millón de veces más rápida. Y la informática de nueva generación logró la misma precisión con el equivalente a solo 28 neuronas, en comparación con las 4.000 que necesita el modelo de la generación actual, dijo Gauthier.
Una razón importante para la aceleración es que el “cerebro” detrás de esta próxima generación de computación de reservorios necesita mucho menos entrenamiento en comparación con la generación actual para producir los mismos resultados.
EP