EmPO: Theory-Driven Dataset Construction for Empathetic Response Generation through Preference Optimization

2024年06月27日
  • 简介
    情感回应生成是对话代理的一个理想方面,对于促进人与机器之间有趣和情感智能的多轮对话至关重要。利用大型语言模型进行此任务已经显示出有希望的结果,但仍然存在挑战,即确保回应的情感质量和模型的泛化性能的保留。在本文中,我们提出了一种新方法,其中构建了理论驱动的偏好数据集,并使用它们来将LLMs与偏好优化算法对齐,以解决这些挑战。为了衡量情感回应生成,我们采用了EmpatheticDialogues数据集,并使用diff-EPITOME和BERTscore指标评估共情,同时在MMLU基准测试上评估泛化性能。我们公开提供了所有数据集、源代码和模型。
  • 作者讲解
  • 图表
  • 解决问题
    本论文旨在解决情感对话生成中的共性与个性问题,并验证所提出的基于理论驱动的偏好数据集和优化算法的有效性。
  • 关键思路
    本文提出了一种基于理论驱动的偏好数据集和优化算法的方法,用于解决大型语言模型在情感对话生成中的共性与个性问题。
  • 其它亮点
    本文使用EmpatheticDialogues数据集评估情感生成的质量,并使用diff-EPITOME和BERTscore评估共情能力,同时在MMLU基准测试中评估泛化性能。研究结果表明,所提出的方法可以有效提高情感对话生成的共情性和个性化程度。
  • 相关研究
    在相关研究方面,最近的研究包括“Towards Empathetic Open-domain Conversation Models: A New Benchmark and Dataset”和“Empathetic Response Generation Using Hierarchical Transformer-based Models”。
许愿开讲
PDF
原文
点赞 收藏
向作者提问
NEW
分享到Link

提问交流

提交问题,平台邀请作者,轻松获得权威解答~

向作者提问