- 简介实体链接(EL)模型在根据给定上下文将提及映射到相应实体方面训练有素。然而,由于训练数据有限,EL模型难以消除长尾实体的歧义。同时,大型语言模型(LLM)更能够解释不常见的提及,但由于缺乏专业训练,LLM在生成正确实体ID方面存在困难。此外,训练LLM执行EL是成本高昂的。基于这些见解,我们引入了LLM增强实体链接LLMAEL,这是一种通过LLM数据增强来增强实体链接的即插即用方法。我们利用LLM作为知识上下文增强器,生成以提及为中心的描述作为附加输入,同时保留传统EL模型进行任务特定处理。在6个标准数据集上的实验表明,普通LLMAEL在大多数情况下优于基线EL模型,而微调的LLMAEL在所有6个基准测试中设置了新的最佳结果。
-
- 图表
- 解决问题本论文旨在解决实体链接中长尾实体歧义消歧困难的问题,提出了一种基于大语言模型数据增强的实体链接方法LLMAEL。
- 关键思路LLMAEL方法利用大语言模型生成与实体提及相关的描述信息,并将其作为额外输入,辅助传统实体链接模型进行任务处理。
- 其它亮点LLMAEL方法在6个标准数据集上的实验表明,相比传统实体链接模型,该方法的表现更优,且在所有6个数据集上均创造了新的最优结果。
- 近期相关研究包括基于深度学习的实体链接方法和基于知识图谱的实体链接方法。
NEW
提问交流
提交问题,平台邀请作者,轻松获得权威解答~
向作者提问

提问交流