本文介绍的是来自中国科学技术大学计算机科学与技术学院的刘淇教授团队和腾讯美国分公司的Cheekong Lee联合发表在AAAI 2022上的文章"ProtGNN: Towards Self-Explaining Graph Neural Networks". 图神经网络作为一种黑盒模型,无法提供易于人类理解的解释,这一弊端使其可信度大打折扣。本文提出面向自解释的图神经网络模型ProtGNN / ProtGNN+,将原型学习与GNN结合,在进行分类任务的同时为人类提供可视化解释。实验证明,ProtGNN / ProtGNN+具有与现有GNN相当的分类能力,并能准确高效地进行模型的内在解释。

文章地址:

https://arxiv.org/pdf/2112.00911.pdf

代码:

https://github.com/zaixizhang/ProtGNN

在ProtGNN中,解释是由基于案例的推理过程自然产生的,并在分类过程中实际使用。ProtGNN的分类预测是通过将输入与潜在空间中学习到的一些原型进行相似度比较而得到的;此外,为了获得更好的可解释性和更高的效率,在ProtGNN+中加入了一个新的条件子图采样模块,以表明输入图的哪一部分与每个原型最相似。最后,作者在广泛的数据集上评估上述模型,并进行了具体的案例研究,结果表明,ProtGNN / ProtGNN+可以提供较好的内在解释性,同时达到与现有的不可解释的GNN相当的分类精度。

内容中包含的图片若涉及版权问题,请及时与我们联系删除