对图结构化数据的通用性,可传递性和鲁棒性表示学习仍然是当前图神经网络(GNN)面临的挑战。与针对卷积神经网络(CNN)开发的图像数据不同,针对GNN的自我监督学习和预训练的探索较少。在本文中,作者提出了一种图对比学习(GraphCL)学习框架,用于学习图数据的无监督表示。首先设计四种类型的图扩充,以结合各种先验。然后,在四种不同的情况下系统地研究图扩充的各种组合对多个数据集的影响:半监督,无监督和迁移学习以及对抗攻击。

结果表明,即使不调参或不使用复杂的GNN架构,与最新方法相比,GraphCL框架也可以生成具有相似或更好的通用性,可传递性和鲁棒性的图表示。 Code:https://github.com/Shen-Lab/GraphCL Paper: https://arxiv.org/abs/2010.13902 Appendix: https://yyou1996.github.io/files/neurips2020graphclsupplement.pdf

内容中包含的图片若涉及版权问题,请及时与我们联系删除