本次推送将带来两篇关于图对比学习(GCL)的文章,第一篇主要关注于图对比学习能work的原因以及是否存在更为高效的学习范式,第二篇主要关注于在图对比学习中的增广方法。

文章概览

1、Rethinking and Scaling Up Graph Contrastive Learning: An Extremely Efficient Approach with Group Discrimination

论文地址:https://arxiv.org/abs/2206.01535

目前大多数关于GNN的工作都集中在(半)监督学习上,导致了一些缺点,包括对标签的严重依赖、概括性差和鲁棒性弱。为了解决这些问题,自监督学习,通过前置任务来提取信息知识,而不依赖人工标签,已经成为图数据的一种有前途的、趋势性的学习范式。然而,目前的自监督学习方法,特别是图对比学习(GCL)方法,在设计中需要大量的计算,阻碍了它们扩展到大型图。本文试图提出一种新的方法来解决这一问题。

2、Revisiting Graph Contrastive Learning from the Perspective of Graph Spectrum

论文地址:https://arxiv.org/abs/2210.02330

图对比学习(GCL)是通过扩充图来学习节点表示的一种学习方法,近年来受到了广泛的关注。尽管各种图形增强策略层出不穷,但一些基本问题仍然不清楚:GCL学习到的表示中基本上编码了什么信息?在不同的扩充之后,是否有一些通用的图形扩充规则?如果是,它们是什么?它们能带来什么见解?本文试图通过建立GCL和图谱之间的联系来回答这些问题。

内容中包含的图片若涉及版权问题,请及时与我们联系删除