- 简介命名实体识别(NER)是自然语言理解中的基本任务,直接关系到网络内容分析、搜索引擎和信息检索系统。经过精细调整的NER模型在标准的NER基准测试中表现良好。然而,由于精细调整数据有限且缺乏知识,它在未知实体识别方面表现不佳。因此,在网络相关应用中,NER模型的可用性和可靠性受到影响。相反,像GPT-4这样的大型语言模型(LLMs)具有广泛的外部知识,但研究表明它们缺乏NER任务的专业性。此外,非公开和大规模的权重使得调整LLMs变得困难。为了解决这些挑战,我们提出了一个框架,将小型精细调整模型与LLMs(LinkNER)结合起来,并采用基于不确定性的链接策略RDC,使精细调整模型能够补充黑盒LLMs,从而实现更好的性能。我们对标准的NER测试集和嘈杂的社交媒体数据集进行了实验。LinkNER增强了NER任务的性能,在鲁棒性测试中明显超过了SOTA模型。我们还定量分析了关键组件(如不确定性估计方法、LLMs和上下文学习)对不同NER任务的影响,提供了具体的网络相关建议。
- 图表
- 解决问题论文旨在解决命名实体识别(NER)在未见过实体时表现不佳的问题,提出了一种结合小型微调模型和大型语言模型的框架来提高NER性能。
- 关键思路论文提出了一种名为LinkNER的框架,将小型微调模型与大型语言模型相结合,并使用一种基于不确定性的链接策略(RDC),使微调模型能够补充黑盒LLMs,从而实现更好的性能。
- 其它亮点论文在标准NER测试集和嘈杂的社交媒体数据集上进行了实验,LinkNER提高了NER任务性能,并在鲁棒性测试中明显超过了SOTA模型。此外,论文还定量分析了不确定性估计方法、LLMs和上下文学习对不同NER任务的影响,并提供了具体的面向Web的建议。
- 最近的相关研究包括《BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding》和《RoBERTa: A Robustly Optimized BERT Pretraining Approach》。
沙发等你来抢
去评论
评论
沙发等你来抢