- 简介成功将大型语言模型(LLMs)成功整合到推荐系统中,已经成为最近研究中的重大突破,为更通用和可转移的推荐铺平了道路。然而,LLMs难以有效地利用用户和物品ID,这些ID对于成功的推荐至关重要。这主要是因为它们在语义空间中的表示与通常用于训练LLMs的自然语言(NL)不同。为了解决这个问题,我们介绍了ControlRec,这是一个创新的对比提示学习框架,用于推荐系统。ControlRec将用户ID和NL视为异构特征并分别对它们进行编码。为了在语义空间中促进它们之间更大的对齐和集成,我们设计了两个辅助对比目标:(1)异构特征匹配(HFM),将物品描述与相应的ID或用户的下一个首选ID根据它们的交互序列对齐,以及(2)指令对比学习(ICL),通过对比由不同任务生成的输出序列的概率分布,有效地合并这两个关键数据源。在四个公共真实世界数据集上的实验结果表明,所提出的方法可以提高模型性能。
-
- 图表
- 解决问题论文旨在解决大语言模型在推荐系统中无法有效利用用户和物品ID的问题,这是一个新问题。
- 关键思路ControlRec是一个创新的对比学习框架,将用户ID和自然语言视为异构特征并分别编码,通过两个辅助对比目标来促进它们在语义空间中的更好对齐和整合。
- 其它亮点论文在四个公共真实世界数据集上进行了实验,证明了所提出方法在提高模型性能方面的有效性。值得关注的是,论文提出的对比学习框架可以应用于其他推荐系统中。
- 最近的相关研究包括:《BERT4Rec: Sequential Recommendation with Bidirectional Encoder Representations from Transformer》、《Neural Collaborative Filtering》、《DeepFM: A Factorization-Machine based Neural Network for CTR Prediction》等。
NEW
提问交流
提交问题,平台邀请作者,轻松获得权威解答~
向作者提问

提问交流