Prompt Tuning as User Inherent Profile Inference Machine

2024年08月13日
  • 简介
    大型语言模型(LLMs)在推荐系统中表现出很大的潜力,通过赋予用户档案广泛的世界知识和优越的推理能力。然而,LLMs面临着不稳定的指令遵从、模态差距和高推理延迟等挑战,导致文本噪声,限制了它们在推荐系统中的有效性。为了解决这些挑战,我们提出了UserIP-Tuning,它使用提示调整来推断用户档案。它将用户档案和行为序列之间的因果关系整合到LLMs的提示中,并采用期望最大化来推断嵌入式潜在档案,通过固定提示模板来最小化文本噪声。此外,一个档案量化码本通过将档案嵌入分类为协作ID来弥合模态差距,这些ID已经存储在在线部署中。这提高了时间效率并降低了内存使用。在四个公共数据集上的实验表明,UserIP-Tuning优于最先进的推荐算法。额外的测试和案例研究证实了它的有效性、鲁棒性和可转移性。
  • 作者讲解
  • 图表
  • 解决问题
    本论文试图解决在推荐系统中使用大型语言模型(LLMs)面临的问题,如指令不稳定、模态差距和高推理延迟等,从而限制了它们的有效性。
  • 关键思路
    本论文提出了一种名为UserIP-Tuning的解决方案,使用prompt-tuning来推断用户画像,并将用户画像与行为序列之间的因果关系集成到LLMs的提示中。通过期望最大化来推断嵌入式潜在画像,从而最小化文本噪声并固定提示模板。此外,使用画像量化码书将画像嵌入分类为协作ID,以缩小模态差距,提高时间效率并减少内存使用。
  • 其它亮点
    论文使用四个公共数据集进行实验,证明了UserIP-Tuning优于现有的推荐算法。此外,还进行了其他测试和案例研究,证实了其有效性、鲁棒性和可转移性。
  • 相关研究
    最近的相关研究包括《Large-Scale Recommender Systems: A Sampling-Based Approach》、《Deep Learning for Recommender Systems: A Survey and New Perspectives》、《Collaborative Filtering for Implicit Feedback Datasets》等。
许愿开讲
PDF
原文
点赞 收藏
向作者提问
NEW
分享到Link

提问交流

提交问题,平台邀请作者,轻松获得权威解答~

向作者提问