SES: Bridging the Gap Between Explainability and Prediction of Graph Neural Networks

2024年07月16日
  • 简介
    尽管图神经网络在分析图数据方面表现出色,但实现高精度和可解释的预测仍然具有挑战性。现有的GNN解释器通常提供与GNN预测不相关的事后解释,导致误解。自解释的GNN在训练过程中提供内置解释。然而,它们不能利用解释结果来增强预测性能,也无法提供高质量的节点特征解释,并需要额外的过程来生成可解释的子图,这是代价高昂的。为了解决上述限制,我们提出了一种自我解释和自我监督的图神经网络(SES),以弥合可解释性和预测之间的差距。SES包括两个过程:可解释的训练和增强的预测学习。在可解释的训练过程中,SES使用与图编码器共同训练的全局掩码生成器直接生成关键的结构和特征掩码,减少时间消耗并提供节点特征和子图解释。在增强的预测学习阶段,利用解释构建基于掩码的正负对,计算三元损失并通过对比学习增强节点表示。
  • 图表
  • 解决问题
    本文旨在解决图神经网络(GNNs)在高精度和可解释性预测方面的挑战。现有的GNN解释器通常提供与GNN预测不相关的事后解释,导致误解。自解释的GNN在训练过程中提供内置解释,但不能利用解释结果来增强预测性能,并且无法提供节点特征的高质量解释,需要额外的过程来生成可解释的子图,这是昂贵的。
  • 关键思路
    本文提出了一种自解释和自监督的图神经网络(SES),以弥合可解释性和预测之间的差距。SES包括两个过程:可解释训练和增强预测学习。在可解释训练期间,SES使用与图编码器共同训练的全局掩码生成器,并直接生成关键的结构和特征掩码,从而减少时间消耗并提供节点特征和子图解释。在增强预测学习阶段,利用这些解释构建基于掩码的正负对,通过对比学习计算三元组损失并增强节点表示。
  • 其它亮点
    本文提出的SES框架融合了解释和预测,能够提供节点特征和子图的高质量解释,并且能够增强预测性能。实验结果表明,SES在多个数据集上均优于其他方法。此外,本文还提供了开源代码。
  • 相关研究
    最近在这个领域中,一些相关的研究包括:《Towards Better Analysis of Deep Convolutional Neural Networks》、《Explainable Artificial Intelligence (XAI): Concepts, Taxonomies, Opportunities and Challenges toward Responsible AI》等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论