People Attribute Purpose to Autonomous Vehicles When Explaining Their Behavior

2024年03月11日
  • 简介
    好的XAI系统的标志是用户能够理解并采取行动的解释。在许多情况下,这需要系统提供可理解的因果或反事实解释。认知科学可以帮助我们理解用户可能期望的解释类型,以及应该如何构建这些解释的格式。我们简要回顾了认知科学解释方面的相关文献,特别是涉及目的论的文献,即倾向于用决策达到的目的来解释决策的趋势。然后,我们报告了有关人们如何为自主车辆的行为生成解释以及他们如何评估这些解释的实证数据。在第一项调查中,参与者(n = 54)被展示了道路场景的视频,并被要求为车辆的行为生成机械、反事实或目的论的口头解释。在第二项调查中,另一组参与者(n = 356)根据各种指标评估了这些解释,包括质量、可信度以及解释中强调每种解释模式的程度。参与者认为机械和目的论解释的质量显著高于反事实解释。此外,被认为是目的论的程度是被认为质量和可信度的最佳预测因素。无论被解释行为的车辆是自主车辆还是由人驾驶,被认为是目的论的程度和质量评分均不受影响。结果表明,人们使用和重视目的论概念来评估有关其他人和自主车辆的信息,这表明他们认为“意图立场”是一种方便的抽象。我们公开了一个带有解释的视频情境的数据集,称为自主驾驶决策的人类解释(HEADD),希望这能促进进一步的研究。
  • 图表
  • 解决问题
    论文旨在探讨人们对自动驾驶车辆行为的解释方式及其影响因素,以及如何提供更易于理解和操作的解释,从而提高人们对自动驾驶车辆的信任。
  • 关键思路
    论文通过调查参与者对自动驾驶车辆行为的解释方式的评估,发现参与者更倾向于使用目的性解释,而非反事实解释,同时目的性解释也更能提高解释的质量和可信度。
  • 其它亮点
    论文使用了两个不同的调查,第一个调查让参与者观看道路场景视频,生成机械式、反事实式和目的性的解释,第二个调查让参与者对这些解释进行评估。结果表明,目的性解释和机械式解释的质量更高,而反事实解释的质量较低,同时目的性解释是影响质量和可信度的最佳预测因素。论文提供了一个包含解释的视频数据集HEADD,并将其公开,以供进一步研究使用。
  • 相关研究
    近期相关研究包括:"Explainable AI: A Survey","Counterfactual Explanations without Opening the Black Box: Automated Decisions and the GDPR"等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论