- 简介对话式推荐系统(CRSs)旨在通过自然对话来获取用户的偏好,从而提供合适的物品推荐。然而,目前的对话式推荐系统往往在简短的对话轮次中快速推荐物品,偏离了现实中的人际交流方式。本文通过利用大语言模型(LLMs)生成对话历史的摘要以及从物品描述中提取推荐信息,来弥补这一差距。该方法能够提取用户明确表达的观点,也能推断出对话语境中隐含的偏好。我们引入了一种基于直接偏好优化(DPO)的方法,以确保生成的对话摘要和物品推荐信息包含对有效推荐至关重要的内容。在两个公开数据集上的实验验证了我们方法在促进更自然、更真实的对话式推荐过程方面的有效性。我们的代码已公开,地址为:https://github.com/UEC-InabaLab/Refining-LLM-Text
-
- 图表
- 解决问题当前的对话推荐系统(CRSs)在实际人类交互中表现不佳,往往在简短对话中快速推荐物品,缺乏自然性与真实感。论文试图解决这一问题,即如何提升对话推荐系统的自然对话能力与推荐质量之间的平衡。
- 关键思路论文提出了一种基于大型语言模型(LLMs)的方法,通过生成对话摘要和从物品描述中提取推荐信息,来捕捉用户的显式陈述和隐式偏好。此外,引入了直接偏好优化(DPO)方法,以确保生成的信息富含推荐所需的关键内容。
- 其它亮点1. 提出了一种结合对话理解与推荐信息提取的新框架,使对话推荐更自然。 2. 利用DPO优化生成过程,提升推荐相关性和信息丰富性。 3. 在两个公开数据集上进行了实验验证,证明方法有效性。 4. 代码已开源,增强了研究的可复现性和社区贡献。
- 1. Recent advances in conversational recommender systems using pre-trained language models. 2. Dialogue-based recommendation: A survey of methods and applications. 3. Incorporating user feedback into dialogue systems for improved recommendation accuracy. 4. Using reinforcement learning to optimize conversational recommendation strategies.
NEW
提问交流
提交问题,平台邀请作者,轻松获得权威解答~
向作者提问

提问交流