IDGenRec: LLM-RecSys Alignment with Textual ID Learning

2024年03月27日
  • 简介
    基于大型语言模型(LLMs)的生成式推荐已经将传统的基于排名的推荐方式转化为了文本生成范式。然而,与通常操作人类词汇的标准自然语言处理任务不同,目前生成式推荐的研究在使用简洁而有意义的ID表示法在文本生成范式中有效编码推荐项方面存在困难。为了更好地与推荐需求相匹配,我们提出了IDGen,将每个项表示为一种独特、简洁、语义丰富、平台无关的文本ID,使用人类语言标记。这是通过在基于LLM的推荐系统旁边训练一个文本ID生成器来实现的,从而实现了个性化推荐与自然语言生成的无缝集成。值得注意的是,由于用户历史记录是用自然语言表达的,并与原始数据集解耦,因此我们的方法提出了一个基础性的生成式推荐模型的潜力。实验表明,在标准实验设置下,我们的框架在顺序推荐方面始终优于现有模型。然后,我们探讨了使用所提出的方法在从19个不同数据集收集的数据上训练基础推荐模型的可能性,并在完全零-shot的情况下在6个不同平台上测试了其推荐性能。结果表明,预训练的基础模型的零-shot性能与一些基于监督训练的传统推荐模型相当甚至更好,显示了IDGen范式作为生成式推荐基础模型的潜力。代码和数据已在https://github.com/agiresearch/IDGenRec开源。
  • 图表
  • 解决问题
    论文提出了一种新的基于文本生成的推荐系统,解决了当前基于排名的推荐系统难以编码推荐项目的问题。同时,论文还探讨了使用自然语言生成来表达用户历史记录的可能性,提出了一种基础推荐模型。
  • 关键思路
    论文提出了一种名为IDGen的方法,将每个推荐项目表示为一个独特的、简洁而富有语义的文本ID,并训练一个文本ID生成器,使其与基于大型语言模型的推荐系统无缝集成。使用这种方法,论文在标准实验设置下,在序列推荐方面始终优于现有模型。此外,论文还探索了在19个不同数据集上训练基础推荐模型,并在6个不同平台上进行了零样本测试的可能性,结果表明预训练基础模型的零样本性能与一些基于监督训练的传统推荐模型相当甚至更好。
  • 其它亮点
    论文的亮点包括提出了一种新的文本生成的推荐系统方法,探讨了使用自然语言生成来表达用户历史记录的可能性,证明了该方法在序列推荐方面的有效性,并提出了一种基础推荐模型。此外,论文还开源了代码和数据,并使用了多个数据集进行了实验。
  • 相关研究
    最近的相关研究包括基于大型语言模型的推荐系统的研究,以及使用自然语言生成来表达用户历史记录的研究。其中一些相关的论文包括《BERT4Rec: Sequential Recommendation with Bidirectional Encoder Representations from Transformer》和《Generating Personalized Session-based Recommendations with Hierarchical Recurrent Encoder》。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论