Timeline-based Sentence Decomposition with In-Context Learning for Temporal Fact Extraction

2024年05月16日
  • 简介
    事实提取对于构建知识图谱至关重要。最近,下游任务对于时间事实的需求增加,导致了时间事实提取任务的出现。在本文中,我们特别处理从自然语言文本中提取时间事实的问题。之前的研究未能处理建立复杂句子中时间和事实之间对应关系的挑战。为了克服这一障碍,我们提出了一种基于时间轴的句子分解策略,使用具有上下文学习的大型语言模型(LLMs),确保对与各种事实相关的时间轴进行细粒度理解。此外,我们评估了LLMs在直接提取时间事实方面的性能,结果不尽如人意。为此,我们引入了TSDRE,一种将LLMs的分解能力融入到较小的预训练语言模型(PLMs)传统微调中的方法。为了支持评估,我们构建了ComplexTRED,一个复杂的时间事实提取数据集。我们的实验表明,TSDRE在HyperRED-Temporal和ComplexTRED数据集上均取得了最先进的结果。
  • 图表
  • 解决问题
    本文旨在解决从自然语言文本中提取时间事实的问题,特别是在处理复杂句子中建立时间与事实之间对应关系的挑战。
  • 关键思路
    本文提出了一种基于时间线的句子分解策略,利用大型语言模型(LLMs)进行上下文学习,确保对各种事实相关时间线的细粒度理解。同时,结合传统的预训练语言模型(PLMs)的微调,提出了一种名为TSDRE的方法,以解决LLMs直接提取时间事实效果不佳的问题。
  • 其它亮点
    本文构建了一个复杂的时间事实提取数据集ComplexTRED,并使用HyperRED-Temporal和ComplexTRED数据集对TSDRE进行了评估。实验结果表明,TSDRE在两个数据集上均取得了最先进的效果。此外,本文还讨论了一些值得进一步研究的方向,如如何处理事件的持续时间等。
  • 相关研究
    最近在这个领域中的相关研究包括:《Joint Extraction of Entities and Temporal Relations Based on a Minimalist Architecture》、《Extracting Temporal Facts from Text with Time Expression-Aware Neural Models》等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论