本文介绍哈佛大学发表在 NeurIPS 2020 上的一篇文章“Subgraph Neural Networks”。本文提出了一种子图表示学习模型 SUBGNN,设计了一种新颖的在子图区块间以及子图与全图间的消息传递机制,在多个子图任务上实现了约20%的性能提升。
论文链接:https://arxiv.org/abs/2006.10538
摘要:
GNN 在许多节点级和图级预测任务中取得了优越的性能。然而,尽管这些方法得到了推广和成功,但主流的图神经网络(GNN)忽略了子图,使得子图预测任务在许多重要应用中难以解决。此外,子图预测任务提出了几个独特的挑战:子图具有复杂的内部拓扑,同时携带相对于其存在的底层图的位置和外部连接信息。本文提出了SUBGNN,一个用于学习子图表征的子图神经网络。SUBGNN 提出了一种新的子图路由机制,在子图的组成部分和底层图的随机抽样锚点之间传播神经信息,产生高度准确的子图表示。SUBGNN 指定了三个通道,每个通道用于捕获子图拓扑的不同方面信息。本文设计了一系列新的合成和真实世界的子图数据集。对8个数据集进行子图分类的实证结果表明,SUBGNN 实现了相当大的性能提升,比强基线方法(包括节点级和图形级GNN)的性能提高了19.8%。SUBGNN 在具有挑战性的生物医学数据集上表现得异常出色,其中子图具有复杂的拓扑结构,甚至包含多个断开连接的组件。
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢