- 简介推荐系统旨在基于历史行为数据预测用户的兴趣。它们主要设计为顺序流水线,需要大量的数据来训练不同的子系统,并且很难扩展到新的领域。最近,大型语言模型(LLM)展示了出色的通用能力,使得单一模型能够处理各种场景下的多样化推荐任务。然而,现有的基于LLM的推荐系统仅纯粹利用LLM来处理推荐流程中的单一任务。此外,由于输入长度的限制,这些系统在以自然语言格式呈现大规模物品集时面临挑战。为了解决这些挑战,我们介绍了一个基于LLM的端到端推荐框架:UniLLMRec。具体而言,UniLLMRec通过推荐链集成了多阶段任务(例如召回、排名、重新排名)。为了处理大规模物品,我们提出了一种新的策略,将所有物品结构化为物品树,可以动态更新和有效检索。与传统的监督模型相比,UniLLMRec在零样本情况下显示出有希望的结果。此外,它具有高效性,相对于现有的基于LLM的模型,可以将输入标记需求降低86%。这种效率不仅加快了任务完成,还优化了资源利用。为了促进模型理解和确保可重复性,我们已公开发布了我们的代码。
- 图表
- 解决问题解决问题:论文旨在提出一种基于大语言模型的端到端推荐框架UniLLMRec,以应对传统推荐系统的数据量大、难以扩展到新领域等问题。
- 关键思路关键思路:UniLLMRec将多阶段任务(如召回、排序、重新排序)通过推荐链集成,利用大语言模型处理大规模商品集,提出了一种新的商品结构化方法,同时实现高效的输入处理,取得了良好的效果。
- 其它亮点其他亮点:论文在多个数据集上进行了实验,并与传统模型进行了比较。UniLLMRec在零样本情况下表现出良好的结果,并且比现有的基于大语言模型的模型减少了86%的输入令牌。此外,论文还开放了代码,方便理解和复现。
- 相关研究:最近的相关研究包括使用大语言模型的推荐系统和商品结构化方法。例如,GPT-based Recommendation和HGN-based Recommendation。
沙发等你来抢
去评论
评论
沙发等你来抢