南京大学 | 分散化知识图谱表示学习 【论文标题】Decentralized Knowledge Graph Representation Learning 【作者团队】Lingbing Guo, Weiqing Wang, Zequn Sun, Chenghao Liu, Wei Hu 【发表时间】2020/10/16 【论文链接】https://arxiv.org/pdf/2010.08114.pdf

【推荐理由】 本文针对通常的知识图谱(KG)学习任务中缺少实体自身特征的现状,提出了一种分散化的KG表示学习方法decentRL,仅利用结构信息进行表征学习就在实体对齐和实体预测任务上取得了非常有竞争力的性能。 知识图谱(KG)表示学习方法在许多面向KG的任务中都取得了很好的性能。然而,许多KG表示学习场景只提供描述实体间关系的结构信息,而实体本身并没有输入特征。在这种情况下,现有的聚合机制无法引入实体的特征,因为这些实体没有预定义特性进行聚合。本文提出了一种分散的KG表示学习方法decentRL,它对每个实体进行编码,并且只从其邻域的嵌入中进行学习编码。在优化方面,本文还设计了一种从模型本身提取知识的自知识蒸馏算法,使得输出嵌入可以从相应的原始嵌入中不断地获取知识。大量实验表明,该方法在实体对齐和实体预测任务上的性能优于许多前沿模型。 本文的主要贡献如下: (1) 提出了分散KG表示学习,并将DAN作为开放环境下图形注意机制的原型。 (2) 设计了一个有效的知识蒸馏算法来支持DAN生成不可见实体的表示。 (3) 实现了一个基于DAN和auto-distriller的端到端框架。实验结果表明,该算法在两个流行的KG表示学习任务(实体对齐和实体预测)上取得了优异的性能,并且在开放世界环境下显著优于那些前沿模型。

内容中包含的图片若涉及版权问题,请及时与我们联系删除