Graph Neural Network Causal Explanation via Neural Causal Models

2024年07月12日
  • 简介
    图神经网络(GNN)解释器可以识别确保给定图形预测的重要子图。到目前为止,几乎所有GNN解释器都是基于关联的,容易产生虚假相关性。我们提出了一种名为{\name}的GNN因果解释器,通过因果推断来确定重要子图。我们的解释器基于这样一个观察结果,即图通常由一个因果潜在子图组成。{\name}包括三个主要步骤:1)它为图构建因果结构和相应的结构因果模型(SCM),从而使节点之间的因果计算成为可能。2)在现实世界的图形中直接计算因果关系是计算上具有挑战性的。然后,它受到最近的神经因果模型(NCM)的启发,这是一种可训练的特殊类型的SCM,并为GNN设计定制的NCM。通过训练这些GNN NCM,可以轻松计算因果关系。3)它通过优化的GNN-NCM揭示了因果解释GNN预测的子图。在多个合成和现实世界的图形上进行的评估结果验证了{\name}在精确的基本事实解释识别方面明显优于现有的GNN解释器。
  • 图表
  • 解决问题
    本论文旨在提出一种基于因果推断的GNN解释器,以解决当前基于关联的GNN解释器容易出现虚假相关性的问题。论文试图通过构建因果结构和相应的结构性因果模型,设计可训练的神经因果模型,从而精确地确定导致预测的重要子图。
  • 关键思路
    论文的关键思路是通过因果推断来解决GNN解释器中存在的虚假相关性问题。通过构建因果结构和结构性因果模型,设计可训练的神经因果模型,从而精确地确定导致预测的重要子图。
  • 其它亮点
    论文通过多个合成和实际数据集的实验验证了{ ame}的有效性。论文提出的GNN因果解释器在精确地确定导致预测的重要子图方面显著优于现有的基于关联的GNN解释器。论文还开源了代码,方便其他研究人员使用。
  • 相关研究
    最近在这个领域中,还有一些相关的研究,例如:“Explaining Graph Neural Networks with Graph Structure and Semantics”和“Towards Causal Explanation of Graph Convolutional Networks for Anti-money Laundering”。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论