本文介绍一篇在面向领域迁移的对话摘要任务上的工作。
1. 当前的对话摘要模型往往缺乏在新领域上的泛化性,因为大规模的生成式预训练模型往往需要大量的人工标注的黄金摘要,在 few/no labeled 的场景下无法扩展到新的领域。
2. 当前研究摘要领域迁移的方法需要耗时的预训练和大规模额外的语料库。他们仅关注沉重的预训练步骤而不是轻量化的微调过程。
论文标题: Domain-Oriented Prefix-Tuning: Towards Efficient and Generalizable Fine-tuning for Zero-Shot Dialogue Summarization
论文来源:
NAACL 2022
论文链接:
https://arxiv.org/abs/2204.04362
代码链接:
https://github.com/Zeng-WH/DOP-Tuning
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢