- 简介本文介绍了图神经网络(GNN)的预测通常缺乏可解释性,因为它们的复杂计算行为和图的抽象性。为了解决这个问题,出现了许多GNN解释方法,它们的目标是解释模型的预测,并在GNN模型部署在决策关键应用程序时获得信任。大多数GNN解释方法以事后方式工作,并以重要边和/或节点的小子集的形式提供解释。本文证明了这些解释不可信,因为常见的GNN解释方法很容易受到对抗扰动的影响。也就是说,即使保留模型预测的原始图结构的微小扰动也可能导致截然不同的解释。这对GNN的事后解释方法的可信度和实用性提出了质疑。为了攻击GNN解释模型,我们设计了一种新的攻击方法,称为GXAttack,这是第一个基于优化的针对这种情况的后续GNN解释的对抗攻击方法。由于我们攻击的毁灭性效果,我们呼吁对未来的GNN解释器进行对抗性评估,以证明它们的鲁棒性。
- 图表
- 解决问题本论文旨在解决图神经网络(GNNs)的解释性问题,即如何解释GNN模型的预测结果以获得信任,以便在决策关键应用中部署GNN模型。
- 关键思路本论文发现常见的GNN解释方法容易受到对抗性扰动的影响,因此提出了一种新的GXAttack对后续GNN解释方法进行对抗攻击,以证明其鲁棒性。
- 其它亮点本论文提出了一种新的GXAttack对后续GNN解释方法进行对抗攻击,并发现常见的GNN解释方法容易受到对抗性扰动的影响,这一发现对后续的GNN解释方法的可信度和实用性提出了质疑。实验使用了多个数据集,并且开源了代码。
- 最近的相关研究包括《Towards Explainable Deep Neural Networks (DNNs): A Survey》和《Explainability in Graph Neural Networks: A Taxonomic Survey》。
沙发等你来抢
去评论
评论
沙发等你来抢