-
如何同时学习到有效的局部和全局信息; -
如何学习到通用的、可迁移的拓扑结构信息; -
如何用概率生成模型对图分布进行建模; -
图神经网络在预训练的过程中怎样学习微调; -
如何增强图神经网络层的聚合能力; -
如何将目标任务以及监督信息融入自监督任务中。
文章概览
1. Pre-Training Graph Neural Networks for Generic Structural Feature Extraction
用于通用结构特征提取的图谱神经网络的预训练
论文地址:https://arxiv.org/abs/1905.13728
2. GRAPH-BERT: Only Attention is Needed for Learning Graph Representations
GRAPH-BERT:学习图表示只需要注意力机制
论文地址:https://arxiv.org/abs/2001.05140
3. GPT-GNN: Generative Pre-Training of Graph Neural Networks
GPT-GNN: 图神经网络的生成性预训练
论文地址:https://arxiv.org/abs/2006.15437
4. Strategies for Pre-training Graph Neural Networks
图神经网络预训练的策略
论文地址:https://arxiv.org/abs/1905.12265
5. GCC: Graph Contrastive Coding for Graph Neural Network Pre-Training
GCC: 图神经网络预训练的图对比性编码
论文地址:https://arxiv.org/abs/2006.09963
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢