- 简介本文中,图对比学习(Graph contrastive learning,GCL)作为图预训练领域的主流范式,已经取得了相当大的进展。然而,它在分布外泛化(out-of-distribution,OOD)方面的能力相对较少被探索。我们指出,GCL中InfoNCE的传统优化将跨域对限制为仅为负样本,这不可避免地扩大了不同域之间的分布差距。这违反了OOD场景下域不变性的要求,因此影响了模型的OOD泛化性能。为了解决这个问题,我们提出了一种新的策略“负样本作为正样本”,在GCL期间将最具语义相似性的跨域负样本视为正样本。我们的实验结果涵盖了广泛的数据集,证实了这种方法显著提高了GCL的OOD泛化性能。
- 图表
- 解决问题本论文旨在解决图预训练中图对比学习(GCL)在领域外泛化能力方面的问题。传统的GCL优化方法限制了跨域对只能是负样本,从而扩大了不同域之间的分布差距,导致模型在领域外泛化时性能下降。
- 关键思路本论文提出了一种新的策略“Negative as Positive”,将最具语义相似性的跨域负样本视为正样本进行GCL。实验结果表明,这种方法显著提高了GCL的领域外泛化性能。
- 其它亮点本论文的实验涵盖了多个数据集,并且使用了开源代码。值得关注的是,本论文提出的“Negative as Positive”策略在多个数据集上都取得了比传统方法更好的领域外泛化性能。此外,本论文还探讨了GCL的领域内泛化和领域外泛化之间的关系。
- 在图预训练领域,还有一些相关的研究,例如:Graph Contrastive Learning with Augmentations(by Kaveh Hassani and Amir Hosein Khasahmadi)、GraphCL:A Contrastive Learning Framework for Graph Neural Networks(by Zhao-Min Chen 等人)。
沙发等你来抢
去评论
评论
沙发等你来抢