- 简介端到端学习的流程正在逐渐创造一种范式转变,这主要归功于深度学习、大规模训练数据集的可用性以及集成传感器设备的改进。然而,当代学习方法在实时决策方面缺乏可解释性,这影响了用户的信任并减弱了这种车辆的广泛部署和商业化。此外,当这些车辆涉及或导致交通事故时,这个问题会更加严重。这种缺陷从社会和法律的角度引发了严重的安全问题。因此,在端到端自动驾驶中,可解释性是确保车辆自动化安全的关键。然而,在当今的技术水平下,自动驾驶的安全性和可解释性方面通常由研究人员分别进行研究。在本文中,我们旨在弥合这些主题之间的差距,并寻求回答以下研究问题:何时以及如何可以通过解释提高自动驾驶的安全性?在这方面,我们首先重新审视了自动驾驶中已建立的安全和最先进的可解释性技术。此外,我们提出了三个关键案例研究,并展示了解释在增强自动驾驶安全方面的关键作用。最后,我们描述了我们的实证研究,并揭示了可解释的人工智能方法在确保车辆自主性的安全性和透明性方面的潜在价值、局限性和注意事项。
-
- 图表
- 解决问题如何在自动驾驶中提高安全性并解释决策的过程
- 关键思路通过提供解释的方法,来增强自动驾驶的安全性
- 其它亮点论文探讨了自动驾驶的安全性和可解释性的关系,并提出了三个关键案例来展示解释在提高自动驾驶安全性方面的重要作用。通过实验验证了解释方法在提高自动驾驶安全性和透明度方面的潜在价值和局限性。
- 最近的相关研究包括:'Interpretable Machine Learning in Automated Driving: A Review','Explainable Artificial Intelligence (XAI) for Autonomous Vehicles: A Review','Towards Explainable Autonomous Driving: Learning Simultaneous Localization and Mapping with Convolutional Neural Networks'等。
NEW
提问交流
提交问题,平台邀请作者,轻松获得权威解答~
向作者提问

提问交流