AZFT-知识引擎实验室论文“FedE:Embedding Knowledge Graph In Federated Setting”被 IJCKG 2021 录用,并获最佳论文奖。论文作者为陈名杨,张文,苑宗港,贾岩涛,陈华钧。
论文链接:
https://arxiv.org/abs/2010.12882
联邦知识图谱表示学习考虑在多个知识图谱分布于不同客户端的情况下,如何保证不暴露数据且互相协同地学习知识图谱嵌入表示。传统的知识图谱表示学习模型一般只考虑单个知识图谱的情况,但由于知识图谱的不完整性,不同数据拥有者往往需要利用其他知识图谱的信息来辅助补全自己的知识图谱,但考虑到数据隐私、商业利益等因素,不同数据拥有者并不能显式地暴露知识图谱。联邦知识图谱的提出可以在保护数据隐私的情况下,对不同客户端的知识图谱同时学习知识图谱表示。本篇论文获国际知识图谱联合会议IJCKG2021 Best Paper Award。
在本文所定义的联邦知识图谱中,多个具有重叠实体的知识图谱被放置在不同的客户端上。一个服务器端用于保存实体表T,该表将不同客户端之间的实体进行对应。我们提出的联邦知识图谱嵌入方法FedE,在保证数据隐私的前提下同时利用其他知识图谱中的信息,从而完成对各个客户端中的知识图谱进行嵌入表示,从而完成知识图谱补全任务。整体的流程如下图所示。
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢