本文总结了5篇使用prompt做NER的研究论文。

1. TemplateNER

论文标题:

Template-Based Named Entity Recognition Using BART

论文链接:

https://arxiv.org/abs/2106.01760

github:

https://github.com/Nealcly/templateNER

核心思想:通过N-Gram方法构建候选实体,然后将其与所有手工模板进行拼接,使用BART模型对其打分,从而预测出最终实体类别。

2. DemonstrationNER

论文标题:

Good Examples Make A Faster Learner: Simple Demonstration-based Learning for Low-resource NER

论文链接:

https://arxiv.org/abs/2110.08454

github:

https://github.com/INK-USC/fewNER

核心思想:在原始文本的基础上,拼接示例模板信息,提高原始序列标注模型的效果。

3. LightNER

论文标题:

LightNER: A Lightweight Generative Framework with Prompt-guided Attention for Low-resource NER

论文链接:

https://arxiv.org/abs/2109.00720

github: 

https://github.com/zjunlp/DeepKE/blob/main/example/ner/few-shot/README_CN.md

 核心思想:将原始序列标注任务转化为Seq2Seq的生成任务,通过在transformer的attetion机制中融入提示信息,在少量参数训练下,使模型达到较好的效果。

4. EntLM

论文标题:

Template-free Prompt Tuning for Few-shot NER

论文链接:

https://arxiv.org/abs/2109.13532

github:

https://github.com/rtmaww/EntLM/

核心思想:将序列标注任务变成原始预训练的LM任务,仅通过答案空间映射,实现任务转化,消除下游任务与原始LM任务的Gap,提高模型效果。

5. UIE

论文标题:

Unified Structure Generation for Universal Information Extraction

论文链接:

https://arxiv.org/abs/2203.12277

github:

https://github.com/universal-ie/UIE

核心思想:将序列标注任务转化为Seq2Seq的生成任务,将手工提示模板与原始文本进行结合,通知模型待抽取的内容,再通过特定的抽取格式,进行逐字解码生成,提高模型效果。

内容中包含的图片若涉及版权问题,请及时与我们联系删除