DPHGNN: A Dual Perspective Hypergraph Neural Networks

2024年05月26日
  • 简介
    本文探讨了在超图上进行消息传递的标准框架,该框架可用于学习超节点之间的高阶相关性。最近提出的超图神经网络(HGNNs)可以根据其设计选择分为空间方法和谱方法。本文分析了超图拓扑结构变化对HGNNs次优性能的影响,并提出了DPHGNN,这是一种新颖的双重视角HGNN,引入等变算子学习来捕捉低阶语义,通过引入拓扑感知的空间和谱归纳偏差。DPHGNN采用统一框架,将底层图中的低阶显式特征表示动态融合到超图结构中。我们在八个基准超图数据集上对DPHGNN进行了基准测试,用于半监督超节点分类任务,与七个最先进的基线相比,DPHGNN表现出更好的性能。我们还提供了一个理论框架和一个合成超图同构测试,以表达空间HGNN的能力并量化DPHGNN在广义Weisfeiler Leman(1-GWL)测试之外的表现能力。最后,我们的合作伙伴电子商务公司将DPHGNN部署于返程预测任务中,其macro F1-Score比最佳基线高约7%。
  • 图表
  • 解决问题
    本论文旨在解决超图神经网络(HGNNs)在拓扑结构变化时表现不佳的问题,并提出DPHGNN,一种新型的双重视角HGNN,通过引入等变算子学习来捕捉低阶语义,从而诱导拓扑感知的空间和频谱归纳偏差。
  • 关键思路
    DPHGNN采用统一的框架,动态融合底层图中的低阶显式特征表示到超图结构中,从而提高HGNNs的性能。
  • 其它亮点
    该论文在八个基准超图数据集上进行了半监督超节点分类任务的基准测试,并与七种最先进的基线进行了比较。结果表明,DPHGNN比其他方法具有更好的性能。此外,该论文提供了一个理论框架和一个合成超图同构测试,以表达空间HGNNs的能力并量化DPHGNN超越广义Weisfeiler Leman(1-GWL)测试的表现力。最后,DPHGNN被我们的合作伙伴电子商务公司用于回归原点(RTO)预测任务,显示出比最佳基线高约7%的宏F1-Score。
  • 相关研究
    最近的相关研究包括:'Hypergraph Neural Networks','Semi-Supervised Classification with Graph Convolutional Networks','Geometric Matrix Completion with Recurrent Multi-Graph Neural Networks'等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论