论文标题:Unified Dialog Model Pre-training for Task-Oriented Dialog Understanding and Generation

收录会议:SIGIR 2022

论文链接:https://dl.acm.org/doi/pdf/10.1145/3477495.3532069

代码链接:https://github.com/OpenSUM/CPSUM

本文提出了一种半监督预训练对话模型 SPACE,该模型将任务型对话中的任务流(Task-Flow)概念引入预训练模型架构中,采用单个统一的 Transformer 骨架将对话理解、对话策略和对话生成进行顺序建模,可以同时解决下游各种不同类型的任务型对话相关任务。我们提出半监督预训练的新范式,利用大规模无标对话语料和少量对话标注知识对模型进行有效的学习。

实验结果表明,SPACE 在下游 3 类任务型对话任务(意图识别、对话状态追踪、端到端对话建模),共计 8 个数据集(BANKING77,CLINC150,HWU64,CamRest,In-Car Assistant, MultiWOZ2.0/2.1/2.2)上均取得了 SOTA 性能。

 

 

内容中包含的图片若涉及版权问题,请及时与我们联系删除