- 简介GNN是基于节点表示学习的强大模型,在许多涉及图形的机器学习问题中表现特别出色。GNN部署的主要障碍大多是社会可接受性和可信度问题,这些属性需要明确这些模型的内部功能。在这里,我们建议挖掘隐藏层中的激活规则,以了解GNN如何感知世界。问题不是发现单独高度区分模型输出的激活规则,而是提供一小组涵盖所有输入图形的规则。为此,我们引入了主观激活模式域。我们定义了一种有效和原则性的算法来枚举每个隐藏层中的激活规则。所提出的方法用信息论根据输入图形数据的背景知识来量化这些规则的兴趣。然后,可以通过涉及可解释特征的模式语言重新描述激活规则。我们展示了激活规则提供了有关GNN用于分类图形的特征的见解。特别地,这允许识别GNN通过其不同层构建的隐藏特征。此外,这些规则随后可用于解释GNN决策。在合成和现实数据集上的实验表明,性能非常竞争,解释图分类的保真度比SOTA方法提高了高达200%。
- 图表
- 解决问题如何让GNN模型更具可解释性和可信度?
- 关键思路通过挖掘隐藏层中的激活规则来理解GNN模型的工作方式,并提出了主观激活模式领域的概念,使用信息论算法对激活规则进行量化。
- 其它亮点论文提出的方法能够帮助理解GNN模型的内部工作机制,并且提供了可解释的特征,可用于解释GNN的决策。实验结果表明,该方法在解释图分类方面具有高度竞争力,比当前最先进的方法提高了高达200%的准确度。
- 最近的相关研究包括:1. Graph Neural Networks: A Review of Methods and Applications;2. Interpretable Graph Convolutional Neural Networks for In Silico Discovery of Novel Regulators of Macrophage Activation;3. Learning to Explain: An Information-Theoretic Perspective on Model Interpretation
沙发等你来抢
去评论
评论
沙发等你来抢