Representation Learning with Large Language Models for Recommendation

2023年10月24日
  • 简介
    推荐系统在深度学习和图神经网络的影响下取得了显著进展,特别是在捕捉复杂的用户-物品关系方面。然而,这些基于图的推荐系统严重依赖于基于ID的数据,可能忽略与用户和物品相关的有价值的文本信息,导致学习到的表示缺乏信息。此外,利用隐式反馈数据引入潜在的噪声和偏差,对用户偏好学习的有效性构成挑战。虽然将大型语言模型(LLMs)整合到传统的基于ID的推荐系统中引起了关注,但在实际推荐系统中实现有效的应用需要解决可扩展性问题、仅限于文本的限制和提示输入约束等挑战。为了解决这些挑战,我们提出了一个模型无关的框架RLMRec,旨在增强现有的推荐系统,以LLM为基础进行表示学习。它提出了一种将表示学习与LLMs集成在一起的推荐范式,以捕捉用户行为和偏好的复杂语义方面。RLMRec整合了辅助文本信号,开发了一种由LLMs支持的用户/物品分析范式,并通过交叉视图对齐框架将LLMs的语义空间与协作关系信号的表示空间对齐。这项工作进一步建立了一个理论基础,证明了通过最大化互信息来整合文本信号可以提高表示的质量。在我们的评估中,我们将RLMRec与最先进的推荐模型集成,同时分析其对噪声数据的效率和鲁棒性。我们的实现代码可在https://github.com/HKUDS/RLMRec上获得。
  • 图表
  • 解决问题
    论文试图提高基于图的推荐系统的效果,通过结合大型语言模型(LLMs)的表示学习来捕捉用户和物品之间的语义关系,并解决ID数据和隐式反馈数据的限制问题。
  • 关键思路
    论文提出了一个模型无关的框架RLMRec,用于增强现有的推荐系统,通过LLM增强表示学习。该框架整合了LLMs的表示学习和推荐范式,通过辅助文本信号、发展LLM增强的用户/物品分析范式,并通过交叉视图对齐框架将LLMs的语义空间与协作关系信号的表示空间对齐。
  • 其它亮点
    论文还提出了一种理论基础,证明了通过最大化互信息来整合文本信号可以提高表示的质量。实验中,作者将RLMRec与最先进的推荐模型相结合,并分析了其效率和对噪声数据的鲁棒性。作者提供了他们的实现代码。
  • 相关研究
    最近的相关研究包括使用LLMs增强推荐系统的工作,例如BERT4Rec和SASRec。
许愿开讲
PDF
原文
点赞 收藏
向作者提问
NEW
分享到Link

提问交流

提交问题,平台邀请作者,轻松获得权威解答~

向作者提问