- 简介图神经网络(GNN)是强大的基于图的机器学习模型,在社交媒体、交通运输和药物研发等各个领域都很受欢迎。然而,由于数据表示复杂,GNN不容易提供人类可理解的预测解释,这可能降低人们对它们的信任,也可能阻碍AI专家和非技术领域专家之间的合作机会。在这里,我们首先讨论两篇旨在以易于理解的方式为领域专家提供GNN解释的论文,然后建立了一套以人为中心的GNN解释设计要求,并最后提供了两个示例原型来演示其中一些提出的要求。
- 图表
- 解决问题提供人类可解释的GNN预测解释
- 关键思路设计可视化原型,通过可视化和交互方式提供GNN预测的解释
- 其它亮点论文提出了一些设计原则,包括可解释性、可视化、交互性等。通过两个可视化原型展示了这些设计原则的应用。使用了两个数据集来验证原型的有效性。
- 最近的相关研究包括:《Towards better understanding of gradient-based attribution methods for deep neural networks》、《Interpretable machine learning: definitions, methods, and applications》等。
沙发等你来抢
去评论
评论
沙发等你来抢