Exploring the Causality of End-to-End Autonomous Driving

2024年07月09日
  • 简介
    深度学习模型被广泛应用于自动驾驶领域,特别是越来越受关注的端到端解决方案。然而,这些模型的黑匣子属性引发了对它们在自动驾驶中的可信度和安全性的担忧,如何调试因果关系已成为一个紧迫的问题。尽管已有一些关于自动驾驶可解释性的研究,但目前还没有系统性的解决方案来帮助研究人员调试和确定导致端到端自动驾驶最终预测行为的关键因素。在这项工作中,我们提出了一种综合方法来探索和分析端到端自动驾驶的因果关系。首先,我们使用受控变量和反事实干预进行定性分析,验证最终规划所依赖的基本信息。然后,通过可视化和统计分析关键模型输入的响应,定量评估影响模型决策的因素。最后,基于对多因素端到端自动驾驶系统的全面研究,我们开发了一个强大的基线和一个工具,用于在闭环模拟器CARLA中探索因果关系。它利用关键的输入源来获得一个精心设计的模型,从而具有高度竞争力。据我们所知,我们的工作是第一个揭示端到端自动驾驶神秘的工作,并将黑匣子变成白匣子。彻底的闭环实验表明,我们的方法可以应用于端到端自动驾驶解决方案的因果关系调试。代码将在https://github.com/bdvisl/DriveInsight上提供。
  • 图表
  • 解决问题
    解决问题:论文试图探索和分析端到端自动驾驶的因果关系,以解决其黑盒特性对自动驾驶的可信度和安全性带来的担忧。
  • 关键思路
    关键思路:论文提出了一种综合的方法,通过控制变量和反事实干预进行定性分析,通过可视化和统计分析关键模型输入的响应来定量评估影响模型决策的因素,并在CARLA模拟器中开发了一个基于多因素端到端自动驾驶系统的强基线和探索因果关系的工具。
  • 其它亮点
    其他亮点:论文将黑盒的端到端自动驾驶系统转化为白盒,提供了一种可靠的调试方法。实验使用了CARLA模拟器和开源的DriveInsight代码。该方法可以应用于端到端自动驾驶系统的因果调试,并为未来的研究提供了方向。
  • 相关研究
    相关研究:近期的相关研究包括基于可解释性的自动驾驶模型和基于因果推理的自动驾驶模型。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论