- 简介大型语言模型(LLMs)在推荐系统中表现出很大的潜力,通过赋予用户档案广泛的世界知识和优越的推理能力。然而,LLMs面临着不稳定的指令遵从、模态差距和高推理延迟等挑战,导致文本噪声,限制了它们在推荐系统中的有效性。为了解决这些挑战,我们提出了UserIP-Tuning,它使用提示调整来推断用户档案。它将用户档案和行为序列之间的因果关系整合到LLMs的提示中,并采用期望最大化来推断嵌入式潜在档案,通过固定提示模板来最小化文本噪声。此外,一个档案量化码本通过将档案嵌入分类为协作ID来弥合模态差距,这些ID已经存储在在线部署中。这提高了时间效率并降低了内存使用。在四个公共数据集上的实验表明,UserIP-Tuning优于最先进的推荐算法。额外的测试和案例研究证实了它的有效性、鲁棒性和可转移性。
-
- 图表
- 解决问题本论文试图解决在推荐系统中使用大型语言模型(LLMs)面临的问题,如指令不稳定、模态差距和高推理延迟等,从而限制了它们的有效性。
- 关键思路本论文提出了一种名为UserIP-Tuning的解决方案,使用prompt-tuning来推断用户画像,并将用户画像与行为序列之间的因果关系集成到LLMs的提示中。通过期望最大化来推断嵌入式潜在画像,从而最小化文本噪声并固定提示模板。此外,使用画像量化码书将画像嵌入分类为协作ID,以缩小模态差距,提高时间效率并减少内存使用。
- 其它亮点论文使用四个公共数据集进行实验,证明了UserIP-Tuning优于现有的推荐算法。此外,还进行了其他测试和案例研究,证实了其有效性、鲁棒性和可转移性。
- 最近的相关研究包括《Large-Scale Recommender Systems: A Sampling-Based Approach》、《Deep Learning for Recommender Systems: A Survey and New Perspectives》、《Collaborative Filtering for Implicit Feedback Datasets》等。
NEW
提问交流
提交问题,平台邀请作者,轻松获得权威解答~
向作者提问

提问交流