Classic GNNs are Strong Baselines: Reassessing GNNs for Node Classification

2024年06月13日
  • 简介
    最近,图形变换器(GTs)已经成为传统消息传递图神经网络(GNNs)的受欢迎的替代品,因为它们在理论上具有更高的表达能力,并且在标准节点分类基准测试中表现出色,常常明显优于GNNs。在本文中,我们进行了彻底的实证分析,重新评估了三种经典的GNN模型(GCN,GAT和GraphSAGE)与GTs的性能。我们的发现表明,之前报道的GTs的优越性可能由于GNNs中次优的超参数配置而被夸大了。值得注意的是,在轻微的超参数调整下,这些经典的GNN模型实现了最先进的性能,在18个不同的数据集中有17个匹配或甚至超过了最近的GTs。此外,我们进行了详细的消融研究,以调查各种GNN配置(如归一化,dropout,残差连接,网络深度和跳跃知识模式)对节点分类性能的影响。我们的研究旨在促进图机器学习领域更高的实证严谨标准,鼓励更准确的比较和评估模型能力。
  • 图表
  • 解决问题
    重新评估经典GNN模型与GTs的表现差异,并探究影响GNN性能的各种配置因素。
  • 关键思路
    通过对三种经典GNN模型的超参数微调,实现了与GTs相当的性能表现,挑战了GTs的优越性。同时,通过详细的消融实验,探究了各种GNN配置因素对节点分类性能的影响。
  • 其它亮点
    实验使用了18个不同数据集,发现经典GNN模型在超参数微调后可以达到与GTs相当的表现;消融实验探究了GNN配置因素对性能的影响,为更准确的模型比较提供了方法。
  • 相关研究
    最近的相关研究包括:《Graph Transformer Networks》、《How Powerful are Graph Neural Networks?》等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论