H-GAP: Humanoid Control with a Generalist Planner

2023年12月05日
  • 简介
    人形控制是一个重要的研究挑战,为融入以人为中心的基础设施和实现基于物理的人形动画提供了途径。该领域的困难挑战源于优化高维动作空间的困难以及人形机器人的双足形态引入的不稳定性。然而,人类运动捕捉数据和基于此的人形轨迹数据集(如MoCapAct)的广泛收集为解决这些挑战铺平了道路。在这个背景下,我们提出了Humanoid Generalist Autoencoding Planner(H-GAP),这是一个基于从人类运动捕捉数据中得出的人形轨迹训练的状态-动作轨迹生成模型,能够熟练地处理模型预测控制(MPC)的下游控制任务。对于具有56个自由度的人形机器人,我们经验证明H-GAP学习表示和生成各种运动行为。此外,它可以灵活地将这些行为转移以解决计划的新的下游控制任务,而不需要从在线交互中进行任何学习。值得注意的是,H-GAP优于具有地面真实动力学模型的MPC基线,并且优于针对单个任务进行训练的离线强化学习方法或者与之相当。最后,我们进行了一系列关于H-GAP的缩放性质的实证研究,显示了通过额外数据而非计算可以提高性能的潜力。代码和视频可在https://ycxuyingchen.github.io/hgap/上获得。
  • 图表
  • 解决问题
    论文旨在解决人形控制中的优化和稳定性问题,利用人体动捕数据训练出能够生成广泛运动行为的状态-动作轨迹生成模型,并通过模型预测控制解决新颖的下游控制任务。
  • 关键思路
    论文提出了一种基于人形轨迹的生成模型H-GAP,通过训练生成状态-动作轨迹,解决高维动作空间优化和人形形态不稳定性问题,可以灵活地将这些行为转移到新颖的下游控制任务中。
  • 其它亮点
    论文通过实验表明,H-GAP学习到了广泛的运动行为,并通过规划方法解决了新颖的下游控制任务,而且比基于真实动力学模型的MPC基线更优。同时,H-GAP也与离线RL方法在训练特定任务时相媲美。此外,论文还进行了一系列关于H-GAP可扩展性的实验,并提供了代码和视频。
  • 相关研究
    在这个领域中,最近的相关研究包括使用深度学习方法进行人形控制,如基于强化学习的方法、基于模型的方法等。其中,与H-GAP较为相似的方法包括基于运动捕捉数据的生成模型,如MoCapGAN、MoCoGAN等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论