Crédito:Universidad de Tohoku
El control motor humano siempre ha sido eficiente para ejecutar movimientos complejos de forma natural, eficientemente, y sin pensarlo mucho. Esto se debe a la existencia de sinergia motora en el sistema nervioso central (SNC). La sinergia motora permite que el SNC utilice un conjunto más pequeño de variables para controlar un gran grupo de músculos; simplificando así el control sobre movimientos coordinados y complejos.
Ahora, Los investigadores de la Universidad de Tohoku han observado un concepto similar en agentes robóticos que utilizan algoritmos de aprendizaje por refuerzo profundo (DRL).
DRL permite a los agentes robóticos aprender la mejor acción posible en su entorno virtual. Permite resolver tareas robóticas complejas al tiempo que minimiza las operaciones manuales y logra el máximo rendimiento. Algoritmos clásicos, por otra parte, requieren intervención manual para encontrar soluciones específicas para cada nueva tarea que aparece.
Sin embargo, Aplicar la sinergia motora del mundo humano al mundo robótico no es una tarea fácil. Aunque muchos estudios apoyan el empleo de la sinergia motora en el control motor humano y animal, el proceso de fondo aún se desconoce en gran medida.
En el estudio actual, Los investigadores de la Universidad de Tohoku utilizaron dos algoritmos DRL en agentes robóticos andantes conocidos como HalfCheetah y FullCheetah. Los dos algoritmos fueron TD3, un DRL clásico, y SAC, un DRL de alto rendimiento.
Los dos agentes robóticos tenían la tarea de avanzar lo más lejos posible dentro de un tiempo determinado. En total, los agentes robóticos completaron 3 millones de pasos. La información de sinergia no se utilizó con respecto a los DRL, pero los agentes robóticos demostraron la aparición de sinergia motora a lo largo de sus movimientos.
Mitsuhiro Hayashibe, Profesor de la Universidad de Tohoku y coautor del estudio, notas "Primero confirmamos de forma cuantitativa que la sinergia motora puede surgir incluso en el aprendizaje profundo como lo hacen los humanos". El profesor Hayashibe agrega:"Después de emplear el aprendizaje profundo, los agentes robóticos mejoraron sus prestaciones motoras al tiempo que limitaron el consumo de energía empleando la sinergia motora ".
Avanzando, los investigadores pretenden explorar más tareas con diferentes modelos corporales para confirmar aún más sus hallazgos.