- 简介实体链接(EL)模型经过良好的训练,可以根据给定的上下文将提及映射到相应的实体。然而,由于训练数据有限,EL模型难以消除长尾实体的歧义。同时,大型语言模型(LLM)在解释不常见的提及时更为强大。然而,由于缺乏专门的训练,LLM在生成正确的实体ID方面存在困难。此外,训练LLM来执行EL是成本高昂的。基于这些见解,我们介绍了LLM增强的实体链接LLMAEL,这是一种通过LLM数据增强来增强实体链接的即插即用方法。我们利用LLM作为知识上下文增强器,生成以提及为中心的描述作为额外的输入,同时保留传统的EL模型进行任务特定处理。在6个标准数据集上的实验表明,香草LLMAEL在大多数情况下优于基线EL模型,而经过微调的LLMAEL在所有6个基准测试中设定了新的最优结果。
-
- 图表
- 解决问题本论文旨在解决实体链接模型在长尾实体上的歧义问题,同时利用大型语言模型进行数据增强,提高实体链接的准确性。
- 关键思路论文提出了一种LLM-Augmented Entity Linking (LLMAEL)方法,结合传统实体链接模型和大型语言模型的优点,通过LLM生成额外的上下文描述信息,从而提高实体链接的准确性。
- 其它亮点论文实验使用了6个标准数据集,结果表明LLMAEL方法在大多数情况下优于传统实体链接模型,并在所有6个基准测试中取得了最新的最佳结果。
- 近期的相关研究包括:《Improving Entity Linking by Modeling Latent Relations between Mentions》、《Denoising Entity Linking with Global Context》等。
NEW
提问交流
提交问题,平台邀请作者,轻松获得权威解答~
向作者提问

提问交流