Expressive Whole-Body Control for Humanoid Robots

2024年02月26日
  • 简介
    我们能否让人形机器人在现实世界中生成丰富、多样和富有表现力的动作?我们建议在一个人形机器人上学习全身控制策略,尽可能逼真地模仿人类动作。为了训练这样的策略,我们在强化学习框架中利用了来自图形学界的大规模人体动作捕捉数据。然而,直接使用动作捕捉数据集进行模仿学习在真实的人形机器人上不起作用,因为在自由度和物理能力上存在巨大差距。我们的方法 Expressive Whole-Body Control (Exbody) 通过鼓励上半身模仿参考动作,同时放松对其两条腿的模仿约束,并仅要求它们稳健地跟随给定速度来解决这个问题。通过在模拟和 Sim2Real 转移中的训练,我们的策略可以控制一个人形机器人以不同的风格行走、与人类握手,甚至在现实世界中与人类跳舞。我们在模拟和现实世界中对各种动作进行了广泛的研究和比较,以展示我们方法的有效性。
  • 图表
  • 解决问题
    如何让人形机器人在现实世界中生成丰富、多样和富有表现力的动作?
  • 关键思路
    通过在强化学习框架下利用大规模的人体运动捕捉数据,学习一个全身控制策略,使人形机器人模仿尽可能逼真的人类动作。通过在模拟和Sim2Real转移中进行训练,实现了控制人形机器人在现实世界中进行不同风格的行走、与人类握手甚至跳舞的能力。
  • 其它亮点
    论文提出的方法Exbody通过鼓励人形机器人的上半身模仿参考动作,同时放松对双腿的模仿约束,并要求它们稳健地跟随给定的速度,解决了在现实人形机器人中进行直接模仿学习的问题。实验设计充分,使用了大规模的人体运动捕捉数据集,并在模拟和现实世界中进行了广泛的研究和比较。
  • 相关研究
    最近的相关研究包括《DeepMimic: Example-Guided Deep Reinforcement Learning of Physics-Based Character Skills》、《Learning Agile and Dynamic Motor Skills for Legged Robots》等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论