- 简介我们提出了一种新颖的基于视觉语言模型(VLM)的导航方法VLM-Social-Nav,用于计算机器人在以人为中心的环境中的轨迹。我们的目标是实时决策机器人行为,使其符合人类期望。我们利用感知模型来检测重要的社交实体,并提示VLM生成符合社交规范的机器人行为指导。VLM-Social-Nav使用基于VLM的评分模块来计算成本项,以确保底层规划器生成的机器人行为是符合社交规范和有效的。我们的整体方法减少了对大型数据集(用于训练)的依赖,并增强了决策的适应性。在实践中,它导致了在人类共享环境中改善了符合社交规范的导航。我们使用Turtlebot机器人在四个不同的真实社交导航场景中展示和评估了我们的系统。我们观察到在四个社交导航场景中,平均成功率至少提高了36.37%,平均碰撞率提高了20.00%。用户研究得分表明,VLM-Social-Nav生成了最符合社交规范的导航行为。
- 图表
- 解决问题VLM-Social-Nav旨在解决在人类共享环境中,机器人行为不符合社交规范的问题。
- 关键思路通过使用视觉语言模型(VLM)和成本函数,VLM-Social-Nav可以在实时决策中生成符合社交规范的机器人行为。
- 其它亮点VLM-Social-Nav使用VLM评分模块计算成本项,以确保机器人行为符合社交规范和有效性。在四个真实社交导航场景中,VLM-Social-Nav实现了平均成功率至少提高36.37%和平均碰撞率提高20.00%。
- 该领域的其他研究包括:Socially Aware Motion Planning(SAMP),Socially Compliant Navigation(SCN)和Socially Intelligent Navigation(SIN)等。
沙发等你来抢
去评论
评论
沙发等你来抢