- 简介推荐系统旨在基于历史行为数据预测用户兴趣。它们通常被设计成顺序流水线,需要大量数据来训练不同的子系统,并且很难扩展到新的领域。最近,大型语言模型(LLM)展示了出色的通用能力,使得一个单一的模型可以处理各种场景下的多样化推荐任务。然而,现有的基于LLM的推荐系统仅将LLM用于推荐流水线的单一任务。此外,由于输入长度的限制,这些系统在以自然语言格式呈现大规模物品集时面临挑战。为了解决这些挑战,我们介绍了一种基于LLM的端到端推荐框架:UniLLMRec。具体而言,UniLLMRec通过推荐链将多阶段任务(例如召回、排名、重新排序)整合起来。为了处理大规模物品,我们提出了一种将所有物品结构化为物品树的新策略,这可以动态更新和有效检索。与传统的监督模型相比,UniLLMRec在零样本结果上表现出有前途的成果。此外,它具有高效性,与现有的基于LLM的模型相比,可以将输入令牌需求降低86%。这种效率不仅加速了任务完成,而且优化了资源利用。为了促进模型理解并确保可重复性,我们已经公开了我们的代码。
- 图表
- 解决问题本文旨在解决现有推荐系统在数据量大、领域新的情况下难以扩展的问题,提出了一种基于大型语言模型的端到端推荐框架UniLLMRec。
- 关键思路UniLLMRec采用了多阶段任务(如召回、排名、再排序)的链式推荐方式,并通过将所有物品结构化为物品树的方法来处理大规模物品集。
- 其它亮点UniLLMRec在零样本情况下表现出良好的推荐效果,与传统监督模型相比,输入令牌需求减少了86%,具有高效的优势。代码已经公开。
- 相关研究包括基于大型语言模型的推荐系统,如BERT4Rec、SASRec等。
沙发等你来抢
去评论
评论
沙发等你来抢