本文总结了5篇使用prompt做NER的研究论文。
1. TemplateNER
论文标题:
Template-Based Named Entity Recognition Using BART
论文链接:
https://arxiv.org/abs/2106.01760
github:
https://github.com/Nealcly/templateNER
核心思想:通过N-Gram方法构建候选实体,然后将其与所有手工模板进行拼接,使用BART模型对其打分,从而预测出最终实体类别。
2. DemonstrationNER
论文标题:
Good Examples Make A Faster Learner: Simple Demonstration-based Learning for Low-resource NER
论文链接:
https://arxiv.org/abs/2110.08454
github:
https://github.com/INK-USC/fewNER
核心思想:在原始文本的基础上,拼接示例模板信息,提高原始序列标注模型的效果。
3. LightNER
论文标题:
LightNER: A Lightweight Generative Framework with Prompt-guided Attention for Low-resource NER
论文链接:
https://arxiv.org/abs/2109.00720
github:
https://github.com/zjunlp/DeepKE/blob/main/example/ner/few-shot/README_CN.md
核心思想:将原始序列标注任务转化为Seq2Seq的生成任务,通过在transformer的attetion机制中融入提示信息,在少量参数训练下,使模型达到较好的效果。
4. EntLM
论文标题:
Template-free Prompt Tuning for Few-shot NER
论文链接:
https://arxiv.org/abs/2109.13532
github:
https://github.com/rtmaww/EntLM/
核心思想:将序列标注任务变成原始预训练的LM任务,仅通过答案空间映射,实现任务转化,消除下游任务与原始LM任务的Gap,提高模型效果。
5. UIE
论文标题:
Unified Structure Generation for Universal Information Extraction
论文链接:
https://arxiv.org/abs/2203.12277
github:
https://github.com/universal-ie/UIE
核心思想:将序列标注任务转化为Seq2Seq的生成任务,将手工提示模板与原始文本进行结合,通知模型待抽取的内容,再通过特定的抽取格式,进行逐字解码生成,提高模型效果。
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢