- 简介鉴于在现实世界中收集机器人数据的高成本,提高样本效率一直是机器人领域的一个重要追求。本文介绍了SGRv2,这是一个通过改进视觉和动作表示来增强样本效率的模仿学习框架。SGRv2设计的核心是引入关键的归纳偏差-动作局部性,即机器人的动作主要受目标物体及其与局部环境的相互作用的影响。在模拟和真实环境中进行了大量实验,证明了动作局部性对提高样本效率至关重要。SGRv2在使用仅5个演示的关键帧控制RLBench任务中表现优异,并在26项任务中的23项中超过了RVT基线。此外,在使用密集控制的ManiSkill2和MimicGen上评估时,SGRv2的成功率是SGR的2.54倍。在现实环境中,仅用8个演示,SGRv2就可以以明显更高的成功率执行各种任务,与基线模型相比。项目网站:http://sgrv2-robot.github.io。
-
- 图表
- 解决问题提高机器人学习中的样本效率。
- 关键思路通过改进视觉和动作表示来增强样本效率,其中关键的归纳偏差是行动局部性,即机器人的行动主要受到目标对象及其与局部环境的交互影响。
- 其它亮点SGRv2在RLBench任务中表现出色,在仅使用5个演示的情况下优于RVT基线的26项任务中的23项。在ManiSkill2和MimicGen上进行的实验表明,SGRv2的成功率是SGR的2.54倍。在真实环境中,仅使用8个演示,SGRv2的成功率明显高于基线模型。
- 在机器人学习领域,最近的相关研究包括《Learning to Learn How to Learn: Self-Adaptive Visual Navigation Using Meta-Learning》、《Learning to Learn from Failure: Training Deep Networks for Robot Navigation》等。
- 1
NEW
提问交流
提交问题,平台邀请作者,轻松获得权威解答~
向作者提问

提问交流