"In Dialogues We Learn": Towards Personalized Dialogue Without Pre-defined Profiles through In-Dialogue Learning

2024年03月05日
  • 简介
    个性化对话系统因其能够生成符合不同人物形象的回复而在近年来受到了广泛关注。然而,大多数现有方法都依赖于预定义的个人资料,这不仅耗时费力,而且缺乏灵活性。我们提出了一种名为“对话中学习”(In-Dialogue Learning,IDL)的微调框架,它增强了预训练大型语言模型利用对话历史来表征人物形象,以完成个性化对话生成任务而无需预定义的个人资料。我们在三个数据集上的实验表明,IDL带来了大幅改进,BLEU和ROUGE得分分别提高了高达200%和247%。此外,人类评估的结果进一步验证了我们提出的方法的有效性。
  • 图表
  • 解决问题
    本论文旨在提出一种新的方法,解决个性化对话生成中预定义个人资料的不足,并尝试在不需要预定义个人资料的情况下,利用对话历史来表征个性化对话生成任务中的个人特征。
  • 关键思路
    本论文提出了一种微调框架——In-Dialogue Learning(IDL),可以增强预训练的大型语言模型利用对话历史来表征个性化对话生成任务中的个人特征的能力。
  • 其它亮点
    本论文的实验结果表明,IDL可以带来显著的改进,BLEU和ROUGE分数分别提高了高达200%和247%。此外,人类评估的结果进一步验证了我们提出的方法的有效性。
  • 相关研究
    近年来,个性化对话生成已经引起了重视。与本论文相关的研究包括:《A Persona-Based Neural Conversation Model》、《Personalizing Dialogue Agents: I have a dog, do you have pets too?》等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论