论文链接:

https://aclanthology.org/2022.acl-long.43

之前的面向 NER 的类增量学习的工作都是基于新类有丰富的监督数据的情况,本文聚焦更具挑战且更实用的问题:少样本 NER 的增量学习。模型只用少量新类样本进行训练,保证新类效果的前提下不遗忘旧类知识。为了解决少样本类增量学习的灾难性遗忘问题,我们使用训练好的 NER 模型对旧类生成合成数据来提升新类训练效果。我们还提出一个框架,通过合成数据和真实数据将 NER 模型从过去 step 中进行蒸馏。实验结果表明我们的方法对比 baseline 取得了很大的提升。

本文的贡献如下:

1. 本文提出了第一个少样本增量学习的 NER 模型;
2. 我们使用真实数据和生成的合成数据来进行蒸馏的模型框架;
3. 实验表明我们的方法在少样本 NER 中取得了很好的效果。

内容中包含的图片若涉及版权问题,请及时与我们联系删除