推荐系统在深度学习和图神经网络的影响下取得了显著进展,特别是在捕捉复杂的用户-物品关系方面。然而,这些基于图的推荐系统严重依赖于基于ID的数据,可能忽略与用户和物品相关的有价值的文本信息,导致学习到的表示缺乏信息。此外,利用隐式反馈数据引入潜在的噪声和偏差,对用户偏好学习的有效性构成挑战。虽然将大型语言模型(LLMs)整合到传统的基于ID的推荐系统中引起了关注,但在实际推荐系统中实现有效的应用需要解决可扩展性问题、仅限于文本的限制和提示输入约束等挑战。为了解决这些挑战,我们提出了一个模型无关的框架RLMRec,旨在增强现有的推荐系统,以LLM为基础进行表示学习。它提出了一种将表示学习与LLMs集成在一起的推荐范式,以捕捉用户行为和偏好的复杂语义方面。RLMRec整合了辅助文本信号,开发了一种由LLMs支持的用户/物品分析范式,并通过交叉视图对齐框架将LLMs的语义空间与协作关系信号的表示空间对齐。这项工作进一步建立了一个理论基础,证明了通过最大化互信息来整合文本信号可以提高表示的质量。在我们的评估中,我们将RLMRec与最先进的推荐模型集成,同时分析其对噪声数据的效率和鲁棒性。我们的实现代码可在https://github.com/HKUDS/RLMRec上获得。
提问交流