- 简介TKGR(Temporal Knowledge Graph Reasoning)是利用时间信息捕捉Temporal Knowledge Graph(TKG)中复杂关系并推导新知识的过程。TKGR的传统方法通常依赖于深度学习算法或时间逻辑规则。然而,基于深度学习的TKGR缺乏可解释性,而基于规则的TKGR则难以有效学习捕捉时间模式的时间规则。最近,大型语言模型(LLMs)在时间推理方面展示了广泛的知识和卓越的能力。因此,使用LLMs进行TKGR在研究人员中引起了越来越多的兴趣。然而,LLMs通常作为黑盒子运行,使得理解其推理过程具有挑战性。此外,由于微调的资源密集型特性,及时更新LLMs以整合TKGs中的不断发展的知识进行推理是不切实际的。为了解决这些挑战,本文提出了一种基于大型语言模型引导动态适应(LLM-DA)的TKGs推理方法。具体而言,LLM-DA利用LLMs的能力分析历史数据并提取时间逻辑规则。这些规则揭示时间模式并促进可解释的推理。为了考虑TKGs的不断发展性,提出了一种动态适应策略,以最新事件更新LLM生成的规则。这确保提取的规则始终包含最新的知识,并更好地推广到未来事件的预测中。实验结果表明,LLM-DA在没有需要微调的情况下,显着提高了对几个常见数据集的推理准确性,为TKGR任务提供了一个强大的框架。
- 图表
- 解决问题本论文旨在解决时间知识图谱推理中深度学习和规则推理方法的不足,提出了一种基于大型语言模型的动态适应方法,以更好地推理时间知识图谱中的新知识。
- 关键思路论文提出了一种新的方法,即利用大型语言模型分析历史数据并提取时间逻辑规则,从而实现可解释的推理。为了适应知识图谱的不断更新,还提出了一种动态适应策略,以更新大型语言模型生成的规则。
- 其它亮点论文的实验结果表明,该方法可以显著提高推理的准确性,并且不需要进行fine-tuning。同时,该论文提供了多个数据集和开源代码,为时间知识图谱推理任务提供了一个稳健的框架。
- 近期的相关研究包括《Temporal Knowledge Graph Completion via Dynamic Context-aware Temporal Attention》、《A Survey on Temporal Knowledge Graphs》等。
沙发等你来抢
去评论
评论
沙发等你来抢