【论文标题】Improving Graph Representation Learning by Contrastive Regularization 【作者团队】Kaili Ma, Haochen Yang, Han Yang, Tatiana Jin, Pengfei Chen, Yongqiang Chen, Barakeel Fanseu Kamhoua, James Cheng 【发表时间】2020/1/27 【机构】香港中文大学 【论文链接】https://arxiv.org/abs/2101.11525

【推荐理由】本文从理论上分析了图表示学习的泛化性能,并提出了一种轻量级的正规化术语,该术语避免了大规模的节点表示范式和它们之间的高方差,从而提高了泛化性能。 图表示学习是在线社交网络,电子商务网络,WWW和语义网等各个领域中应用程序的一项重要任务。对于无监督的图形表示学习,许多算法(例如Node2Vec和Graph-SAGE)都使用“负采样”和/或噪声对比估计损失。这具有与对比学习相似的思想,对比学习将语义相似(正)对的节点表示相似性与否定对的节点代表相似性进行“对比”。但是,尽管对比学习取得了成功,但作者发现将这种技术直接应用于图表示学习模型(例如图卷积网络)并不总是有效。作者从理论上分析了泛化性能,并提出了一种轻量级的正规化术语,该术语避免了大规模的节点表示范式和它们之间的高方差,从而提高了泛化性能。本文的实验结果进一步验证了该正则项显着提高了跨不同节点相似性定义的表示质量,并且胜过了最新技术。

内容中包含的图片若涉及版权问题,请及时与我们联系删除