Review-LLM: Harnessing Large Language Models for Personalized Review Generation

2024年07月10日
  • 简介
    产品评论生成是推荐系统中的重要任务,可以为推荐提供解释和说服力。最近,大型语言模型(LLM,例如ChatGPT)展示了出色的文本建模和生成能力,可以应用于评论生成。然而,直接应用LLMs生成评论可能会受到LLMs的“礼貌”现象的困扰,并且无法生成个性化的评论(例如负面评论)。在本文中,我们提出了Review-LLM,为个性化评论生成定制了LLMs。首先,我们通过汇总用户历史行为(包括相应的项目标题和评论)构建提示输入。这使得LLMs能够捕捉用户的兴趣特征和评论写作风格。其次,我们将评分作为满意度的指标纳入提示,这可以进一步提高模型对用户偏好和生成评论的情感倾向控制的理解。最后,我们将提示文本馈入LLMs,并使用监督微调(SFT)使模型为给定的用户和目标项目生成个性化评论。真实数据集上的实验结果表明,我们微调的模型可以比现有的闭源LLMs实现更好的评论生成性能。
  • 作者讲解
  • 图表
  • 解决问题
    本论文旨在解决推荐系统中生成产品评论的问题,提出了一种个性化评论生成的方法Review-LLM,以解决现有模型中的礼貌现象和缺乏个性化的问题。
  • 关键思路
    Review-LLM通过整合用户历史行为和评分作为输入,结合监督微调的方式,使得LLMs可以生成更加个性化和情感控制更好的评论。
  • 其它亮点
    论文使用了真实世界的数据集进行实验,证明了Review-LLM在评论生成方面的优越性,并且开源了代码,具有可复现性。值得进一步研究的是如何进一步提升生成评论的多样性和真实性。
  • 相关研究
    在相关研究方面,最近也有一些研究致力于解决评论生成的问题,例如《Unsupervised Review Generation with Graph Attention》和《Controllable Product Review Generation with Aspect-Aware and Sentiment-Aware》等。
许愿开讲
PDF
原文
点赞 收藏
向作者提问
NEW
分享到Link

提问交流

提交问题,平台邀请作者,轻松获得权威解答~

向作者提问