Demonstrating Agile Flight from Pixels without State Estimation

Robotics: Science and Systems (RSS), 2024
2024年06月18日
  • 简介
    四旋翼飞行器是最灵活的飞行机器人之一。尽管在基于学习的控制和计算机视觉方面取得了近期进展,但自主无人机仍然依赖于明确的状态估计。另一方面,人类飞行员仅依靠来自无人机机载相机的第一人称视角视频流来将平台推向极限并在未知环境中稳健地飞行。据我们所知,我们提出了第一个基于视觉的四旋翼系统,可以在高速通过一系列门时自主导航,同时直接将像素映射到控制命令。与专业的无人机赛车飞行员一样,我们的系统不使用明确的状态估计,并利用人类使用的相同控制命令(总推力和机身速率)。我们展示了高达40公里/小时速度下的敏捷飞行,加速度高达2g。这是通过使用强化学习(RL)训练基于视觉的策略实现的。训练使用具有访问特权信息的非对称演员-评论家算法进行。为了在基于图像的RL训练期间克服计算复杂性,我们使用门的内边缘作为传感器抽象。这种简单但强大的任务相关表示可以在训练期间模拟而无需渲染图像。在部署期间,使用基于Swin-transformer的门检测器。我们的方法使得使用标准的现成硬件实现自主敏捷飞行成为可能。尽管我们的演示重点是无人机赛车,但我们认为我们的方法在无人机赛车之外也有影响,并且可以为未来在结构化环境中进行实际应用的研究奠定基础。
  • 作者讲解
  • 图表
  • 解决问题
    本论文试图解决无人机自主导航的问题,通过视觉控制来实现无人机的自主飞行,同时避免了昂贵的传感器成本。
  • 关键思路
    本论文提出了一种基于视觉控制的强化学习方法,通过学习像素到控制命令的映射关系,实现了无人机的自主导航。同时,使用内部边缘检测作为传感器抽象,以简单而稳健的方式实现了任务相关的表示。
  • 其它亮点
    本论文的实验结果表明,该方法能够在40km/h的速度下进行敏捷飞行,并且加速度高达2g。同时,该方法使用标准、现成的硬件,具有广泛的应用前景。论文开源了代码,并提供了数据集。
  • 相关研究
    在相关研究方面,最近的一些相关论文包括:《基于深度学习的无人机自主导航方法》、《无人机自主导航中的传感器融合方法》等。
许愿开讲
PDF
原文
点赞 收藏
向作者提问
NEW
分享到Link

提问交流

提交问题,平台邀请作者,轻松获得权威解答~

向作者提问