Improving Multi-hop Logical Reasoning in Knowledge Graphs with Context-Aware Query Representation Learning

2024年06月11日
  • 简介
    多跳逻辑推理是自然语言处理中的一个重要任务,许多方法旨在回答一阶逻辑查询。最近的基于几何(如盒子、锥体)和概率(如贝塔分布)的方法已经有效地解决了复杂的一阶逻辑查询。然而,这些方法面临的一个共同挑战在于确定这些查询的准确几何边界或概率参数。这个挑战的原因是现有的方法依赖于它们计算图中的线性顺序操作,忽略了查询的逻辑结构以及可以从查询的关系中获取的关系引导信息,我们称之为查询的上下文。为了解决这个问题,我们提出了一种模型无关的方法,通过完全整合FOL查询图的上下文来增强现有的多跳逻辑推理方法的有效性。我们的方法独特地区分了(1)固有于查询结构的结构上下文和(2)与查询图中每个节点独特的关系引导上下文,如相应的知识图所描述的那样。这种双重上下文范式有助于查询图中的节点在多跳推理步骤中获得精细的内部表示。通过对两个数据集的实验,我们的方法一致地提高了三个多跳推理基础模型的性能,性能提高高达19.5%。我们的代码可在https://github.com/kjh9503/caqr上获得。
  • 图表
  • 解决问题
    本文旨在解决自然语言处理中基于知识图谱的多跳逻辑推理任务中,确定准确的几何边界或概率参数的挑战。现有方法忽略了查询的逻辑结构和关系引起的信息,导致性能不佳。
  • 关键思路
    本文提出了一种模型无关的方法,通过完全整合FOL查询图的上下文来增强现有的多跳逻辑推理方法的有效性。该方法独特地区分了查询结构固有的结构上下文和每个节点在对应的知识图中引起的关系诱导上下文。这种双重上下文范式有助于查询图内部节点在多跳推理步骤中获得精细的内部表示。
  • 其它亮点
    本文的实验在两个数据集上进行,一致性地提高了三个多跳推理基础模型的性能,最高可提高19.5%。作者开源了代码。
  • 相关研究
    在这个领域中,最近的相关研究包括:《Multi-hop Knowledge Graph Reasoning with Reward Shaping》、《Link Prediction on Knowledge Graphs with Isomorphic Subgraphs Mining》、《Neural Logic Reasoning》等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论