论文链接:https://arxiv.org/abs/2204.04874
现有的图对比学习(GCL)模型依赖于图的增强,来学习在不同的增强图中保持不变的表示。作者发现,图的增强能够保存图的低频部分,而扰动图的高频部分,因此图对比学习模型往往能在同质图上取得很好的表现,但在高频的异质图中表现欠佳。基于此,作者提出了不需要增强的 AF-GCL 模型,它能够利用图神经网络聚合出的特征直接生成自监督信号,并且对图的同质性依赖程度更低。
内容中包含的图片若涉及版权问题,请及时与我们联系删除
论文链接:https://arxiv.org/abs/2204.04874
现有的图对比学习(GCL)模型依赖于图的增强,来学习在不同的增强图中保持不变的表示。作者发现,图的增强能够保存图的低频部分,而扰动图的高频部分,因此图对比学习模型往往能在同质图上取得很好的表现,但在高频的异质图中表现欠佳。基于此,作者提出了不需要增强的 AF-GCL 模型,它能够利用图神经网络聚合出的特征直接生成自监督信号,并且对图的同质性依赖程度更低。
内容中包含的图片若涉及版权问题,请及时与我们联系删除
沙发等你来抢
评论
沙发等你来抢