人体运动控制一直很有效地自然,高效地执行复杂的运动,而无需花费太多的精力。这是因为中枢神经系统(CNS)中存在运动协同作用。运动协同作用使中枢神经系统可以使用较小的变量集来控制一大群肌肉。从而简化了对协调复杂运动的控制。
现在,东北大学的研究人员在使用深度强化学习(DRL)算法的机器人代理中观察到了类似的概念。
DRL使机器人代理可以在其虚拟环境中学习最佳操作。它可以解决复杂的机器人任务,同时最大程度地减少手动操作并达到最佳性能。另一方面,经典算法需要人工干预才能为出现的每个新任务找到特定的解决方案。
然而,将人类之间的电机协同作用应用于机器人世界并非易事。尽管许多研究支持在人类和动物运动控制中采用运动协同作用,但背景过程仍是未知之数。
在当前的研究中,东北大学的研究人员在行走机器人代理上使用了两种DRL算法,分别称为HalfCheetah和FullCheetah。这两种算法分别是TD3(经典DRL)和SAC(高性能DRL)。
这两个机器人代理的任务是在给定的时间内尽可能地向前奔跑。机器人特工总共完成了300万步。没有针对DRL使用协同作用信息,但是机器人特工证明了运动过程中运动协同作用的出现。
东北大学教授和该研究的合著者林光光弘(Mitsuhiro Hayashibe)指出:“我们首先以定量的方式证实,即使在深度学习中,运动协同作用也可以像人类一样出现。”Hayashibe教授补充说:“在进行深度学习之后,机器人代理通过利用电机协同作用改善了电机性能,同时限制了能耗。”
展望未来,研究人员旨在探索更多具有不同身体模型的任务,以进一步证实他们的发现。