- 简介在为推荐系统适配大型语言模型(LLMRec)时,整合协同信息至关重要。现有方法通过从头开始学习LLMs潜在空间中的协同嵌入或从外部模型映射来实现此目的。然而,它们未能以类似文本的格式呈现信息,这可能与LLMs的最佳匹配不一致。为了弥合这一差距,我们引入了BinLLM,一种新颖的LLMRec方法,通过类似文本的编码无缝地整合协同信息。BinLLM将来自外部模型的协同嵌入转换为二进制序列——一种LLMs可以直接理解和操作的特定文本格式,从而促进LLMs直接使用类似文本格式的协同信息。此外,BinLLM提供了使用点-十进制表示法压缩二进制序列的选项,以避免过长的长度。广泛的实验验证了BinLLM以更好地与LLMs对齐的方式引入协同信息,从而提高了性能。我们在https://github.com/zyang1580/BinLLM上发布了我们的代码。
- 图表
- 解决问题BinLLM论文旨在解决LLMRec中集成协作信息的问题,现有方法无法以文本格式表示信息,与LLMs不太匹配。
- 关键思路BinLLM通过将协作嵌入从外部模型转换为二进制序列,将协作信息无缝地整合到LLMs中,实现了文本格式的集成。
- 其它亮点论文提供了一种新的方法将协作信息以文本格式整合到LLMs中,可以使用点十进制表示法压缩二进制序列。实验结果表明,BinLLM可以提高性能。
- 近期的相关研究包括《Learning to Represent Knowledge Graphs with Gaussian Embedding》和《Collaborative Variational Autoencoder for Recommender Systems》。
沙发等你来抢
去评论
评论
沙发等你来抢