本文探讨了

  • 需要GNN的可解释性

  • 解释GNN预测的挑战

  • 不同的GNN解释方法

  • GNNExplainer的直观解释

  • 使用GNNExplainer实现解释节点分类和图分类

论文链接:https://arxiv.org/pdf/2012.15445.pdf

如果你不解释预测背后的原因,深度学习算法就像黑匣子,因此不能完全信任。不提供预测背后的原因,会阻止深度学习算法在涉及公平、隐私和跨领域安全的关键应用中使用。
深度学习模型的可解释性有助于
  • 增加对模型预测的信任
  • 改进模型的透明度,用于与公平、隐私和其他安全挑战相关的关键决策应用
  • 在将模型部署之前,可以通过对网络特征的理解来识别和纠正模型所犯的系统模式错误。

 

内容中包含的图片若涉及版权问题,请及时与我们联系删除