论文标题:Domain-Oriented Prefix-Tuning: Towards Efficient and Generalizable Fine-tuning for Zero-Shot Dialogue Summarization

论文来源:NAACL 2022

论文链接:https://arxiv.org/abs/2204.04362

代码链接:https://github.com/Zeng-WH/DOP-Tuning

我们第一个探索对话摘要的领域迁移任务的 fine-tuning 方法,并且在 TODSum(TODSum 是我们提出的对话摘要数据集)和 QMSum 两个数据集上建立了实用且全面的 benchmarks.
本文提出了轻量且有效的面向领域的 Prefix-tuning 的模型,该模型使用领域词初始化的 prefix 模块以及离散的 prompt 来从大规模预训练模型中交互式地提取知识。
进行了充分的实验和定量分析来证明了我们提出的方法的有效性,并且讨论了面向领域迁移的对话摘要所存在的挑战。

模型结构包括 Domain-Oriented Prefix,Prompt Encoder 以及 Decoder 三个部分。

模型结构图

 

内容中包含的图片若涉及版权问题,请及时与我们联系删除