On the Connection between Game-Theoretic Feature Attributions and Counterfactual Explanations

解决问题:本篇论文旨在探讨可解释人工智能(XAI)中的两种流行解释方法:特征归因和反事实解释之间的关系,并建立它们之间的理论联系。同时,论文也试图探究使用反事实解释来提供特征重要性时可能存在的局限性。

关键思路:论文通过对Shapley值和反事实解释进行操作性改变,证明了在一定条件下它们是等价的。同时,论文还将这种等价关系扩展到了Shapley值以外的博弈论解概念。相比于当前领域的研究,本篇论文的关键思路在于建立了特征归因和反事实解释之间的理论联系。

其他亮点:本文的实验使用了三个数据集,并定量展示了两种解释方法之间的差异。此外,论文还揭示了使用反事实解释来提供特征重要性的局限性。本文未提供开源代码。

关于作者:本文的主要作者是Emanuele Albini、Shubham Sharma、Saumitra Mishra、Danial Dervovic和Daniele Magazzeni。他们分别来自伦敦大学学院和意大利国家研究委员会。Emanuele Albini曾在ICLR、AAAI等人工智能领域的重要会议上发表过论文,其中包括对抗样本防御和多智能体规划等方向。Daniele Magazzeni则在人工智能规划领域有着广泛的研究经验。

相关研究:近期其他相关的研究包括:

  1. "Counterfactual Explanations without Opening the Black Box: Automated Decisions and the GDPR" by Wachter, Mittelstadt, and Russell from University of Oxford.
  2. "Game-Theoretic Explanations for Machine Learning Models" by Slack, Hilgard, and Jia from UC Berkeley and OpenAI.
  3. "Towards A Rigorous Science of Interpretable Machine Learning" by Doshi-Velez and Kim from Harvard University and Google.

论文摘要:这篇论文讨论了可解释人工智能(XAI)中两种最流行的解释方法——特征归因和反事实解释之间的关系。这两种方法之前的研究相对独立,而且很少有试图将它们结合起来的理论研究。本文通过改进Shapley值的特征归因和反事实解释的操作方法,证明了在一定条件下它们是等价的。此外,本文还将这种等价关系推广到了Shapley值以外的博弈论解概念。通过分析这种等价关系的条件,本文还揭示了单纯使用反事实解释来提供特征重要性的局限性。作者在三个数据集上进行了实验,定量展示了这两种方法在各个阶段的解释差异,并证实了理论发现。

内容中包含的图片若涉及版权问题,请及时与我们联系删除