本文发表在KDD2020上,通过在有标签数据上预训练GNN,接着通过自监督的方式,在只有少量有标签样本的下游任务数据集上进行迁移学习。模型通过图生成任务来预训练GNN,用于捕获图的结构和语义信息。在10亿级别的开放数据集下,与现有模型对比证明了模型的有效性。是近期图神经网络预训练方向上一系列论文中,比较经典的一篇论文。
【KDD2020】
内容中包含的图片若涉及版权问题,请及时与我们联系删除
举报类型(必选)
举报详情(选填)
0/200
沙发等你来抢
评论
沙发等你来抢