大多数开放域对话模型在长期人机对话中往往表现不佳。可能的原因是这些模型缺乏理解和记忆长期对话历史信息的能力。为了解决这个问题,本文提出了一个新的长期记忆对话(LeMon)任务,然后构建了一个新的对话数据集 DuLeMon 和一个具有长期记忆(LTM)机制的对话生成框架 PLATO-LTM,这种 LTM 机制使本文的系统能够准确地提取和持续更新长期角色记忆。
据本文所知,这是首次对用户和机器人双方的角色信息进行实时动态管理。结果表明,就长期对话一致性而言,PLATO-LTM 可以显着优于基线,从而提高对话参与度。

论文标题:

Long Time No See! Open-Domain Conversation with Long-Term Persona Memory

论文链接:

https://arxiv.org/abs/2203.05797

代码&数据链接:

https://github.com/PaddlePaddle/Research/tree/master/NLP/ACL2022-DuLeMon

内容中包含的图片若涉及版权问题,请及时与我们联系删除