- 简介可穿戴协作机器人能够帮助需要防止跌倒或穿戴外骨骼的人。这样的机器人需要能够根据自我中心视觉和周围环境预测佩戴者的自我运动。在这项工作中,我们利用身体上的摄像机和传感器来预测人类佩戴者在复杂环境中的轨迹。为了便于自我运动预测的研究,我们收集了一个以用户视角为中心的全面的步行场景导航数据集。我们提出了一种方法,可以根据周围静态场景预测人类运动。我们的方法利用扩散模型生成潜在未来轨迹的分布,考虑到用户对环境的观察。我们引入了一种紧凑的表示方法来编码用户对环境的视觉记忆,以及一种高效的样本生成技术来加速扩散模型的实时推理。我们对模型进行了实验,与基线进行了比较,结果表明,我们的模型在碰撞避免和轨迹模式覆盖等关键指标上优于现有方法。
- 解决问题本论文旨在解决穿戴式协作机器人在复杂环境中预测佩戴者未来运动轨迹的问题。
- 关键思路该论文提出了一种基于扩散模型的方法,利用佩戴者的视觉记忆和环境观察来预测未来的运动轨迹。
- 其它亮点论文提出了一个全新的数据集,并且提出了一种紧凑的表示方法和高效的样本生成技术,以加速实时推理。实验结果表明,该方法在避免碰撞和轨迹模式覆盖等关键指标上优于现有方法。
- 最近的相关研究包括:'Learning to Navigate in Complex Environments Using Full-View Hemisphere Images','EgoTopo: Environment Affordance Learning by Moving Agents in Egocentric Visual Space'等。
沙发等你来抢
去评论
评论
沙发等你来抢