图片

今天给大家分享一篇新加坡国立大学蔡达成教授、张岸研究员、中国科学技术大学何向南教授、王翔教授、冯福利教授2022年合作发表在IEEE Transactions on Pattern Analysis and Machine Intelligence上的一篇文章“Reinforced Causal Explainer for Graph Neural Networks”。作者提出了一个强化因果解释器,通过考虑边的因果效应和边之间的依赖关系来更好地解释GNN预测,实验结果说明了其有效性。

文章链接https://ieeexplore.ieee.org/abstract/document/9763330

代码链接https://github.com/xiangwang1223/reinforced_causal_explainer

可解释性对于探索图神经网络(GNN)至关重要,它可以回答如下问题:为什么GNN模型会做出某种预测?特征归因是在输入图中突出解释性子图的一种流行技术,这可能会引导GNN模型做出预测。各种归因方法已经被提出,利用类梯度或注意力分数作为边的归因,然后选择归因分数最高的显著边作为解释。然而,这些研究大多假设所选的边是线性无关的,这就使得边之间的依赖关系,特别是它们的联合效应,在很大程度上没有得到研究。本文作者证明了这一假设的明显缺陷,会使解释性子图不可靠和冗余 (unfaithful and verbose)。为了解决这一挑战,作者提出了一种强化因果解释器 (RC-Explainer)。该方法将解释任务框定为一个顺序决策过程,通过添加显著边连接先前选择的子图,依次构造解释子图。在技术上,它的策略网络预测边添加的行为,获得量化该行为对预测的因果影响的奖励。这样的奖励解释了新添加的边和之前添加的边的依赖性,从而反映了它们是否一起协作,形成一个联盟 (coalition),以寻求更好的解释。它通过策略梯度训练来优化边序列的奖励流。因此,RC-Explainer能够生成可靠而简洁的解释,并且对不可见的图具有更好的泛化能力。当在三个图分类数据集上解释不同的GNN时,RC-Explainer实现了与最先进的方法更好或相当的性能。

内容中包含的图片若涉及版权问题,请及时与我们联系删除