- 简介图神经网络(GNNs)已成为学习图结构数据任务的有效工具。最近,引入了图信息层(GI)来解决图节点回归任务,扩展了它们的适用性超出了经典的GNNs。然而,现有的GI层实现由于密集的内存分配而缺乏效率。本文提出了一种稀疏实现GI层的方法,利用邻接矩阵的稀疏性显著减少了内存使用量。此外,还引入了一种通用的GI层形式,使其能够应用于图节点的子集。所提出的稀疏实现改善了GI层的具体计算效率和可扩展性,允许构建更深的图信息神经网络(GINNs),并促进它们在更大的图上的可扩展性。
- 图表
- 解决问题本论文旨在提出一种稀疏的Graph-Informed(GI)层实现,以解决现有GI层中存在的内存分配密集的问题,并扩展其应用范围,使其适用于更大的图形数据集。
- 关键思路本论文提出了一种稀疏的GI层实现,利用邻接矩阵的稀疏性显著减少了内存使用,并引入了一种通用的GI层形式,使其适用于图形节点的子集。
- 其它亮点本论文的实验设计充分,使用了多个数据集进行验证,并开源了代码。稀疏的GI层实现显著提高了计算效率和可扩展性,使得可以构建更深的Graph-Informed神经网络(GINN),并便于其扩展到更大的图形数据集。
- 最近的相关研究包括:1. Graph Convolutional Networks (GCNs);2. Graph Attention Networks (GATs);3. GraphSAGE;4. Diffusion Convolutional Recurrent Neural Network (DCRNN)。
沙发等你来抢
去评论
评论
沙发等你来抢