LLMAEL: Large Language Models are Good Context Augmenters for Entity Linking

2024年07月04日
  • 简介
    实体链接(EL)模型经过良好的训练,可以根据给定的上下文将提及映射到相应的实体。然而,由于训练数据有限,EL模型难以消除长尾实体的歧义。同时,大型语言模型(LLM)在解释不常见的提及时更为强大。然而,由于缺乏专门的训练,LLM在生成正确的实体ID方面存在困难。此外,训练LLM来执行EL是成本高昂的。基于这些见解,我们介绍了LLM增强的实体链接LLMAEL,这是一种通过LLM数据增强来增强实体链接的即插即用方法。我们利用LLM作为知识上下文增强器,生成以提及为中心的描述作为额外的输入,同时保留传统的EL模型进行任务特定处理。在6个标准数据集上的实验表明,香草LLMAEL在大多数情况下优于基线EL模型,而经过微调的LLMAEL在所有6个基准测试中设定了新的最优结果。
  • 作者讲解
  • 图表
  • 解决问题
    本论文旨在解决实体链接模型在长尾实体上的歧义问题,同时利用大型语言模型进行数据增强,提高实体链接的准确性。
  • 关键思路
    论文提出了一种LLM-Augmented Entity Linking (LLMAEL)方法,结合传统实体链接模型和大型语言模型的优点,通过LLM生成额外的上下文描述信息,从而提高实体链接的准确性。
  • 其它亮点
    论文实验使用了6个标准数据集,结果表明LLMAEL方法在大多数情况下优于传统实体链接模型,并在所有6个基准测试中取得了最新的最佳结果。
  • 相关研究
    近期的相关研究包括:《Improving Entity Linking by Modeling Latent Relations between Mentions》、《Denoising Entity Linking with Global Context》等。
许愿开讲
PDF
原文
点赞 收藏
向作者提问
NEW
分享到Link

提问交流

提交问题,平台邀请作者,轻松获得权威解答~

向作者提问