简介:图神经网络的内在可解释性是找到输入图的一个小子图的特征来指导模型预测。不幸的是,主流的方法往往依赖于数据偏差,特别是快捷特征,来构建基本原理和做出预测,而没有探究关键的因果模式。此外,这些数据偏差很容易在训练分布之外改变。因此,这些模型在非分布数据上的可解释性和预测性能都有很大的下降。在这项工作中,我们提出了一种新的发现不变原理的策略来构造本质可解释的GNN。它对训练分布进行干预,以创建多个干预分布。然后,类似于因果原理,在不同的分布是不变的,同时过滤掉不稳定的虚假模式。在合成数据集和真实数据集上的实验验证了该方法在图分类的可解释性和泛化能力方面的优越性。

文章链接:http://arxiv.org/abs/2201.12872
代码:https://github.com/Wuyxin/DIR-GNN

内容中包含的图片若涉及版权问题,请及时与我们联系删除