Text-like Encoding of Collaborative Information in Large Language Models for Recommendation

2024年06月05日
  • 简介
    在为推荐系统适配大型语言模型(LLMRec)时,整合协同信息至关重要。现有方法通过从头开始学习LLMs潜在空间中的协同嵌入或从外部模型映射来实现此目的。然而,它们未能以类似文本的格式呈现信息,这可能与LLMs的最佳匹配不一致。为了弥合这一差距,我们引入了BinLLM,一种新颖的LLMRec方法,通过类似文本的编码无缝地整合协同信息。BinLLM将来自外部模型的协同嵌入转换为二进制序列——一种LLMs可以直接理解和操作的特定文本格式,从而促进LLMs直接使用类似文本格式的协同信息。此外,BinLLM提供了使用点-十进制表示法压缩二进制序列的选项,以避免过长的长度。广泛的实验验证了BinLLM以更好地与LLMs对齐的方式引入协同信息,从而提高了性能。我们在https://github.com/zyang1580/BinLLM上发布了我们的代码。
  • 图表
  • 解决问题
    BinLLM论文旨在解决LLMRec中集成协作信息的问题,现有方法无法以文本格式表示信息,与LLMs不太匹配。
  • 关键思路
    BinLLM通过将协作嵌入从外部模型转换为二进制序列,将协作信息无缝地整合到LLMs中,实现了文本格式的集成。
  • 其它亮点
    论文提供了一种新的方法将协作信息以文本格式整合到LLMs中,可以使用点十进制表示法压缩二进制序列。实验结果表明,BinLLM可以提高性能。
  • 相关研究
    近期的相关研究包括《Learning to Represent Knowledge Graphs with Gaussian Embedding》和《Collaborative Variational Autoencoder for Recommender Systems》。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论