对话系统是 NLP 领域的重要研究方向,深度学习技术的不断进步极大地推动了对话系统的发展。给定一段历史信息,我们可以从哪些角度着手,来提升生成对话的质量呢?

本期 Fudan DISC 实验室将分享 ACL 2022 中关于如何进行主题切分的一篇文章和关于如何提高对话生成质量的两篇文章。

 

1. 基于端到端分章节的新闻摘要生成

End-to-End Segmentation-based News Summarization

论文地址:https://aclanthology.org/2022.findings-acl.46.pdf

为了更好地理解长篇新闻,该文章提出了基于分章节的新闻摘要生成任务,该任务的目的是将一篇新闻文章分成多个部分,并为每个部分生成相应的摘要。作者创建了一个新的新闻数据集 SEGNEWS,并提出了一种新颖的端到端方法,该方法可以将文章分割任务和相应摘要生成任务联合起来,通过共享的编码器相互学习。在 SEGNEWS 上的实验结果表明该模型优于最先进的 Seq2Seq 文本生成模型。

2. 好久不见! 具有长期角色记忆的开放域对话系统

Long Time No See! Open-Domain Conversation with Long-Term Persona Memory

论文地址:https://aclanthology.org/2022.findings-acl.207.pdf

由于缺乏理解和记忆长期对话历史信息的能力,大多数开放域的对话模型在长期的人机对话交互中表现不佳。为解决该问题,作者定义了一种新的长时记忆会话 (LeMon) 任务,并在此基础上构建了一个新的对话数据集 DuLeMon 和一个具有长时记忆机制 (LTM) 对话生成框架 PLATO-LTM,LTM 机制可以使系统准确提取并持续更新长期角色记忆,基于 DuLeMon 的研究结果表明,PLATO-LTM 在长期对话一致性方面显著优于基线。

3. ProphetChat: 通过模拟未来的对话来增强对话生成

ProphetChat: Enhancing Dialogue Generation with Simulation of Future Conversation

论文地址:https://aclanthology.org/2022.acl-long.68.pdf

典型的生成式对话模型利用对话历史来生成回应,然而由于应答方式多样,仅根据历史信息很难生成期望回答。在这项工作中,作者提出了一种新的对话生成框架 ProphetChat,该框架在推理阶段利用模拟的未来对话来增强生成对话的效果。基于两个开放域对话数据集的实验结果表明,ProphetChat 可以生成更好的答语,表明了模拟的未来对话信息对对话生成的有效性。

内容中包含的图片若涉及版权问题,请及时与我们联系删除