Curriculum Negative Mining For Temporal Networks

2024年07月24日
  • 简介
    时间网络对于捕捉社交网络和电子商务网络等网络的演变交互非常有效。近年来,研究人员主要集中于开发特定的模型架构用于Temporal Graph Neural Networks (TGNNs)以提高时间节点和边的表示质量。然而,在TGNNs的训练过程中,对负样本的质量给予的关注却有限。与静态网络相比,时间网络在负采样方面面临两个特定的挑战:正样本稀疏性和正样本转移。正样本稀疏性指的是每个时间戳中存在大量负样本中的单个正样本,而正样本转移则涉及到在不同时间戳中正样本的变化。为了在训练TGNNs时能够稳健地应对这些挑战,我们引入了Curriculum Negative Mining (CurNM),这是一个模型感知的课程学习框架,能够自适应地调整负样本的难度。在这个框架内,我们首先建立一个动态更新的负样本池,平衡随机、历史和困难的负样本,以解决正样本稀疏性所带来的挑战。其次,我们实现了一个时间感知的负样本选择模块,专注于从最近活跃边的解缠绕因素中学习,从而准确地捕捉转移偏好。在12个数据集和3个TGNNs上的大量实验表明,我们的方法比基线方法表现更优。此外,深入的削减研究和参数敏感性实验验证了我们方法的有用性和稳健性。我们的代码可在https://github.com/zziyue83/CurNM上获得。
  • 图表
  • 解决问题
    本文旨在解决时间网络中负采样问题,即正样本稀疏和正样本漂移的问题,以提高TGNN训练的鲁棒性和表示质量。
  • 关键思路
    本文提出Curriculum Negative Mining (CurNM)框架,采用模型感知课程学习,自适应地调整负样本的难度。该框架包括动态更新的负样本池和时态感知的负样本选择模块。
  • 其它亮点
    本文在12个数据集和3个TGNN上进行了广泛的实验,结果表明CurNM方法明显优于基线方法。此外,本文还进行了深入的消融研究和参数敏感性实验,并在github上公开了代码。
  • 相关研究
    最近的相关研究包括:1)时间网络表示学习方法的设计;2)TGNN模型的改进;3)负采样方法的改进。其中一些论文的标题包括《Dynamic Network Embedding by Modeling Triadic Closure Process》和《Temporal Graph Networks for Deep Learning on Dynamic Graphs》等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论