结构化数据在网络应用中很好地存在,如社交媒体中的社交网络、学术网站中的引文网络、在线论坛中的线程数据。由于拓扑结构的复杂性,这些数据中的丰富信息难以处理和利用。图神经网络(GNN)在结构化数据的学习表示方面显示出极大的优势。然而,深度学习模型的不透明性使得解释GNN的预测变得非常重要。同时,GNN解释的评价也是一个巨大的挑战,因为在很多情况下,基准真相解释是不可用的。在本文中,我们从因果推理理论中借鉴反事实和事实推理(CF^2)的观点,来解决可解释GNN中的学习和评价问题。为了生成解释,我们提出了一个模型无关的框架,通过建立一个优化问题的基础上,这两个随意的观点。这将CF^2与之前只考虑其中一个的可解释GNN区分开来。这项工作的另一个贡献是对GNN解释的评价。为了在不要求基本事实的情况下定量地评估生成的解释,我们设计了基于反事实和事实推理的度量标准,以评估解释的必要性和充分性。实验表明,无论基准真相解释是否可用,CF^2在真实数据集上都比以前的最先进的方法产生了更好的解释。此外,统计分析证明了基准真相评估和我们提出的指标之间的相关性。
论文链接:https://arxiv.org/abs/2202.08816
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢