Tackling Oversmoothing in GNN via Graph Sparsification: A Truss-based Approach

2024年07月16日
  • 简介
    图神经网络(GNN)通过对各种领域的网络中的有意义的拓扑结构进行编码,从节点级别和图级别任务上取得了巨大成功,这些领域包括社交网络和生物网络。然而,在密集区域使用多个GNN层时,重复的聚合操作会导致节点表示过度混合,导致嵌入几乎无法区分。这种现象导致了过度平滑问题,阻碍了下游的图分析任务。为了解决这个问题,我们提出了一种新颖且灵活的基于桁架的图稀疏化模型,该模型从图的密集区域修剪边缘。修剪密集区域中的冗余边缘有助于防止在GNN模型中进行分层消息传递和池化时聚合过多的邻域信息。然后,我们在最先进的基线GNN和池化模型中使用我们的稀疏化模型,例如GIN、SAGPool、GMT、DiffPool、MinCutPool、HGP-SL、DMonPool和AdamGNN。在不同的真实数据集上进行的广泛实验表明,我们的模型显著提高了基线GNN模型在图分类任务中的性能。
  • 图表
  • 解决问题
    论文旨在解决GNN中的过度平滑问题,即在密集区域中多层GNN层次聚合操作导致节点表示过于相似的问题。
  • 关键思路
    论文提出了一种基于桥梁的图稀疏化模型,通过在图的密集区域修剪冗余边来防止过度聚合。这种方法可以显著提高基线GNN模型在图分类任务中的性能。
  • 其它亮点
    论文在多个真实世界的数据集上进行了广泛的实验,证明了提出的方法的有效性。同时,他们还将这种方法应用于当前领域中的多个先进的GNN模型和池化模型,并取得了显著的性能提升。此外,他们还开源了代码,方便其他研究者使用和拓展。
  • 相关研究
    在该领域的相关研究中,有一些关于GNN的过度平滑问题的研究,例如《How Powerful are Graph Neural Networks?》和《Understanding Attention and Generalization in Graph Neural Networks》等。此外,还有一些关于图稀疏化的研究,例如《Graph Sampling with Distributed Inference》和《DropEdge: Towards Deep Graph Convolutional Networks on Node Classification》等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论