图片

   图对比学习(GCL)利用图增强将图转换为不同的视图,并进一步训练图神经网络(GNN),在图基准数据集上取得了相当大的成功。然而,在将现有的GCL方法直接应用于实际数据方面仍存在一些问题。首先,手工图增强不能在多个任务上产生一致的性能。第二,大多数真实世界的图数据呈现类不平衡分布,但现有的GCL方法并不能幸免于数据不平衡问题。因此,这项工作提出了一个称为共模态图对比学习(CM-GCL)的框架来自动生成对比对,并进一步学习未标记数据的平衡表示。具体地说,作者设计了基于丰富节点内容自动生成对比对(例如,节点-文本)的跨模态GCL。受修剪深度神经网络可以“忘记”少数样本这一事实的启发,作者自然地将网络修剪扩展到GCL框架,用于挖掘少数节点的信息。作者通过将相应的节点-文本对聚合到一起,并将不相关的节点-文本对相互远离,以不同的方式联合训练两个剪枝编码器(例如GNN和文本编码器)。同时,作者通过联合训练非修剪GNN和修剪GNN提出了模态内GCL,以确保具有相似属性特征的节点嵌入保持相近。最后,作者针对类不平衡节点分类的下游任务对GNN编码器进行了微调。大量的实验表明,CM-GCL模型显著优于最先进的基线模型,并在现实世界的图上学习到了更平衡的表示。

论文:https://openreview.net/pdf?id=f_kvHrM4Q0

内容中包含的图片若涉及版权问题,请及时与我们联系删除