LANE: Logic Alignment of Non-tuning Large Language Models and Online Recommendation Systems for Explainable Reason Generation

2024年07月03日
  • 简介
    推荐系统的可解释性对于增强用户信任和满意度至关重要。利用大型语言模型(LLMs)为综合推荐逻辑生成提供了新的机会。然而,在现有相关研究中,为推荐任务微调LLM模型会产生高计算成本和与现有系统的对准问题,限制了已证明的专有/闭源LLM模型(如GPT-4)的应用潜力。在这项工作中,我们提出了一种有效的策略LANE,将LLMs与在线推荐系统对齐,无需额外的LLMs微调,降低成本并提高可解释性。这种创新方法解决了将语言模型与推荐系统集成的关键挑战,同时充分利用了强大的专有模型的能力。具体而言,我们的策略通过几个关键组件运作:语义嵌入、使用零样本提示提取用户多偏好、语义对齐以及使用思维链(CoT)提示的可解释推荐生成。通过嵌入物品标题而不是ID并利用多头注意机制,我们的方法将用户偏好的语义特征与候选物品的语义特征对齐,确保一致和用户对齐的推荐。充分的实验结果,包括性能比较、问卷投票和可视化案例,证明了我们的方法不仅可以确保推荐性能,而且可以提供易于理解和合理的推荐逻辑。
  • 作者讲解
  • 图表
  • 解决问题
    提高推荐系统的可解释性,同时利用大型语言模型进行全面的推荐逻辑生成。
  • 关键思路
    提出了一种名为LANE的策略,通过语义嵌入、使用零样本提示提取用户多重喜好、语义对齐和使用CoT提示生成可解释的推荐,将LLMs与在线推荐系统对齐,而无需额外的LLMs调整,从而降低成本并提高可解释性。
  • 其它亮点
    使用嵌入项标题而不是ID,并利用多头注意机制,使我们的方法将用户喜好的语义特征与候选项的语义特征对齐,确保连贯和用户对齐的推荐。实验结果表明,我们的方法不仅可以确保推荐性能,而且可以提供易于理解和合理的推荐逻辑。
  • 相关研究
    最近的相关研究包括Fine-tuning LLM模型以进行推荐任务的研究,但这会产生高计算成本和与现有系统的对齐问题,限制了专有/闭源LLM模型(如GPT-4)的应用潜力。
许愿开讲
PDF
原文
点赞 收藏
向作者提问
NEW
分享到Link

提问交流

提交问题,平台邀请作者,轻松获得权威解答~

向作者提问