【论文标题】:Distributed Variable-Baseline Stereo SLAM from two UAVs 【论文作者】:Marco Karrer and Margarita Chli 【发表时间】:2020/09/10 【论文链接】:https://arxiv.org/abs/2009.03671v1 【视频演示】:https://youtu.be/SdL4Jb-BQ28 【推荐理由】 本文提出了一种多智能体环境下的双无人机分布式变基线立体视觉系统。
视觉惯性测量(VIO)已被广泛应用于机器人自主导航,但是,当可观察到的地标远离机器人时(例如高空飞行),这些方法的性能会大大降低。为了解决这个问题,作者在该文章中使用两台无人机(UAV),分别配备一台IMU和一台单眼摄像机,同时使用超宽带模块测量它们之间的相对距离,利用它们的视野重叠和相对距离测量进行协作VIO,以便实时计算两台UAV的6DoF姿态估计,从而在虚拟环境中进行立体场景估计。该论文提出了一种新颖的分布式融合方案,该方案能够利用两个UAV形成具有可调基线的虚拟立体摄像机装置。同时,为了自主控制UAV智能体,提出了一种分布式协作估计方案,该方案中的每个智能体都拥有自己的本地地图,实现平均姿态估计延迟为11ms,同时通过基于共识的优化确保智能体估计的一致性。经过在虚拟环境中的全面模拟评估,表明该方法在160m的高空飞行中的仍然有效。将这两个智能体用作具有可调基线的虚拟立体摄像机,可以处理较大的场景深度,远远超出了最新VIO方法的能力。
通过使用两台分别配备一台惯性测量单元(IMU)和一台单眼摄像机的无人机,同时使用超宽带模块测量它们之间的相对距离。在所提出的传感器融合框架能够可靠地估算两架无人机的姿态。在分布式实现中,通过基于共识的优化方案每个智能体都拥有自己的地图版本,底部两个图像中的红色和蓝色圆圈分别表示具有和不具有关联的3D点的关键点。
本文主要贡献如下: 提出了一个新颖的实时传感器融合框架,结合了来自两架无人机的单眼视觉和IMU数据,以及它们之间的相对距离测量值(例如,在每个智能体上使用超宽带模块),即使在高空飞行条件下,也能够可靠地估计相对姿态 首次将ARock异步并行协同更新框架用于多主体估计,首次实现分布式方式滑动窗口束调整 在模拟仿真环境中对该系统进行了全面评估,表明该方法可在更高的飞行高度上优于SOTA VIO方法 利用两个UAV中可调整立体视觉基线的优点,通过简单的编队控制器进行准确的姿态估计
内容中包含的图片若涉及版权问题,请及时与我们联系删除


评论
沙发等你来抢