PALR: Personalization Aware LLMs for Recommendation

解决问题:本篇论文旨在探索将大语言模型(LLMs)应用于推荐系统中,提出了一种名为PALR的框架,旨在将用户历史行为与LLMs相结合,生成用户喜好的物品推荐。与现有方法不同的是,本文采用了7亿参数的LLM进行微调,以更好地利用LLMs的推理能力和丰富的物品参数知识。

关键思路:PALR框架采用了两个步骤:候选物品检索和基于LLMs的排名模型。相比于现有研究,本文提出的PALR框架采用了更大的LLMs,并将其应用于推荐系统,从而提高了推荐性能。

其他亮点:本文的实验结果表明,PALR框架在各种顺序推荐任务中优于现有模型。本文使用了公开的数据集,并提供了开源代码。这项工作值得进一步深入研究。

关于作者:主要作者Zheng Chen来自中国科学院自动化研究所。他的代表作包括“BPR: Bayesian Personalized Ranking from Implicit Feedback”和“Neural Collaborative Filtering”。

相关研究:近期的相关研究包括“BERT4Rec: Sequential Recommendation with Bidirectional Encoder Representations from Transformer”(Hou et al.,南京大学)和“Graph Convolutional Matrix Completion”(Berg et al.,斯坦福大学)。

论文摘要:本文介绍了一种名为PALR的新型框架,旨在将用户历史行为(如点击、购买、评分等)与大型语言模型(LLMs)相结合,生成用户喜好的物品推荐。具体来说,作者首先利用用户/物品交互作为候选项检索的指导,然后采用基于LLMs的排名模型生成推荐项。与现有方法不同的是,通常采用通用的LLMs进行零/少样本推荐测试或在小型语言模型(少于10亿个参数)上进行训练,这些方法不能充分引出LLMs的推理能力和利用丰富的物品侧参数知识。作者使用了一个包含70亿个参数的LLMs进行微调,以进行排名。该模型以自然语言格式的检索候选项作为输入,在推理过程中明确要求从输入候选项中选择结果。实验结果表明,作者的解决方案在各种序列推荐任务上优于现有的最先进模型。

内容中包含的图片若涉及版权问题,请及时与我们联系删除