LLMAEL: Large Language Models are Good Context Augmenters for Entity Linking

2024年07月04日
  • 简介
    实体链接(EL)模型在根据给定上下文将提及映射到相应实体方面训练有素。然而,由于训练数据有限,EL模型难以消除长尾实体的歧义。同时,大型语言模型(LLM)更能够解释不常见的提及,但由于缺乏专业训练,LLM在生成正确实体ID方面存在困难。此外,训练LLM执行EL是成本高昂的。基于这些见解,我们引入了LLM增强实体链接LLMAEL,这是一种通过LLM数据增强来增强实体链接的即插即用方法。我们利用LLM作为知识上下文增强器,生成以提及为中心的描述作为附加输入,同时保留传统EL模型进行任务特定处理。在6个标准数据集上的实验表明,普通LLMAEL在大多数情况下优于基线EL模型,而微调的LLMAEL在所有6个基准测试中设置了新的最佳结果。
  • 作者讲解
  • 图表
  • 解决问题
    本论文旨在解决实体链接中长尾实体歧义消歧困难的问题,提出了一种基于大语言模型数据增强的实体链接方法LLMAEL。
  • 关键思路
    LLMAEL方法利用大语言模型生成与实体提及相关的描述信息,并将其作为额外输入,辅助传统实体链接模型进行任务处理。
  • 其它亮点
    LLMAEL方法在6个标准数据集上的实验表明,相比传统实体链接模型,该方法的表现更优,且在所有6个数据集上均创造了新的最优结果。
  • 相关研究
    近期相关研究包括基于深度学习的实体链接方法和基于知识图谱的实体链接方法。
许愿开讲
PDF
原文
点赞 收藏
向作者提问
NEW
分享到Link

提问交流

提交问题,平台邀请作者,轻松获得权威解答~

向作者提问