Large Language Models meet Collaborative Filtering: An Efficient All-round LLM-based Recommender System

2024年04月17日
  • 简介
    协同过滤推荐系统(CF-RecSys)在增强社交媒体和电子商务平台用户体验方面已经取得了成功的结果。然而,由于CF-RecSys在用户-项目交互稀疏的冷启动情况下表现不佳,因此最近的策略集中于利用用户/项目的模态信息(例如文本或图像),基于预训练的模态编码器和大型语言模型(LLMs)进行改进。尽管这些策略在冷启动情况下很有效,但我们观察到它们在温启动情况下表现不如简单传统的协同过滤模型,因为它们缺乏协同知识。在这项工作中,我们提出了一种高效的全方位LLM推荐系统,称为A-LLMRec,它不仅在冷启动情况下表现出色,而且在温启动情况下也表现出色。我们的主要思想是使LLM直接利用预训练的最先进CF-RecSys中包含的协同知识,以便联合利用LLM的新兴能力以及已经由最先进的CF-RecSys训练的高质量用户/项目嵌入。这种方法具有两个优点:(1)模型无关,可以与各种现有的CF-RecSys集成,(2)效率高,消除了通常需要进行的LLM推荐器的广泛微调。我们在各种真实世界数据集上的大量实验表明,A-LLMRec在各种情况下都表现出优越性,包括冷/温启动、少样本、冷用户和跨领域情况。除了推荐任务外,我们还展示了A-LLMRec在基于对协同知识的理解的基础上生成自然语言输出方面的潜力,通过执行一个喜爱流派预测任务。我们的代码可在https://github.com/ghdtjr/A-LLMRec上获得。
  • 图表
  • 解决问题
    本论文旨在解决协同过滤推荐系统在冷启动情况下稀疏用户-物品交互数据的问题,同时在热启动情况下也能表现优异。
  • 关键思路
    论文提出了一种名为A-LLMRec的基于预训练协同过滤推荐系统和大型语言模型的推荐系统,通过直接利用预训练的协同过滤推荐系统中的协同知识,与已经训练好的高质量的用户/物品嵌入一起进行联合训练,从而在冷启动和热启动情况下都能表现优异。
  • 其它亮点
    论文的方法不仅是模型无关的,可以与各种现有的协同过滤推荐系统集成,而且还具有高效性,消除了通常需要进行的大量微调。论文在多个真实数据集上进行了广泛的实验,证明了A-LLMRec在各种情况下的优越性,包括冷/热启动、少样本、冷用户和跨领域情况。此外,论文还展示了A-LLMRec在基于理解协同知识的情况下生成自然语言输出的潜力。
  • 相关研究
    最近的相关研究包括利用大型语言模型来增强推荐系统的方法,如BERT4Rec、SASRec和BERT-basedCF等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论