- 简介自动驾驶汽车通常通过基于机器学习的预测模型应用于收集的传感器数据来做出复杂的决策。虽然这种方法组合为实时操作提供了基础,但自动驾驶行为主要仍然对最终用户不透明。因此,在建立对自动驾驶汽车的信任方面,实时决策的可解释性是一个至关重要和自然的要求。此外,由于自动驾驶汽车仍然因各种原因导致严重的交通事故,及时向道路用户传达即将发生的危险可以帮助提高场景理解并防止潜在风险。因此,还需要为自动驾驶汽车提供用户友好的界面,以实现有效的人机团队合作。受此问题的启发,我们研究了可解释的AI和人机界面在共同建立车辆自主性信任方面的作用。我们首先采用“3W1H”(什么,谁,何时,如何)方法介绍了解释性人机系统的广泛背景。基于这些发现,我们提出了一个情境感知框架,用于校准用户对自动驾驶行为的信任。最后,我们对我们的框架进行了实验,进行了用户研究,并通过假设检验验证了实证发现。
- 图表
- 解决问题本论文试图解决自动驾驶汽车在实时决策中的不可解释性和人机界面不友好的问题,以建立用户对自动驾驶汽车的信任。
- 关键思路论文提出了一个基于情境感知的框架,通过解释自动驾驶汽车的决策过程和提供友好的人机界面,来提高用户对自动驾驶汽车的信任。
- 其它亮点论文采用了“3W1H”方法来解释人机系统的背景,提出了情境感知框架来校准用户对自动驾驶行为的信任。论文进行了实验并对实验结果进行了假设检验。
- 相关研究包括解释机器学习模型的方法、自动驾驶汽车的人机交互研究、自动驾驶汽车事故分析等。
沙发等你来抢
去评论
评论
沙发等你来抢