Efficient and Responsible Adaptation of Large Language Models for Robust Top-k Recommendations

2024年05月01日
  • 简介
    传统的推荐系统通常是针对所有训练样本统一优化性能指标。这使得数据驱动的推荐系统难以满足不同用户的需求,因为这些用户具有不同的属性。不同人群之间的性能差异可能会损害模型对子群体的鲁棒性。虽然最近的研究表明,通过调整大型语言模型(LLM)可以解决一些难题,但数百万用户的长查询可能会降低LLM的性能,增加成本、处理时间和推理延迟,这对LLM的实际应用性构成了挑战。为了解决这个问题,我们提出了一个混合任务分配框架,利用LLM和传统RS的能力。通过采用两阶段方法来提高对子群体的鲁棒性,我们促进了LLM的高效和负责任的适应能力。我们的策略是首先识别那些由于RS而获得次优排名表现的弱用户和非活跃用户。接下来,我们为这些用户使用上下文学习方法,其中每个用户交互历史记录被上下文化为一个独特的排名任务并提供给LLM。我们通过整合各种推荐算法——协同过滤和学习排序推荐模型——以及两个LLM(开源和闭源)来测试我们的混合框架。我们在三个真实数据集上的结果表明,弱用户数量显著减少,RS对子群体的鲁棒性提高了$(\approx12\%)$,而总体性能没有不成比例地增加成本。
  • 作者讲解
  • 图表
  • 解决问题
    提高推荐系统对不同用户群体的鲁棒性和性能
  • 关键思路
    采用混合任务分配框架,结合传统的推荐系统和大语言模型,通过两阶段方法来提高推荐系统对不同用户群体的鲁棒性,首先识别弱用户并使用上下文学习方法,然后将任务分配给大语言模型
  • 其它亮点
    实验结果显示,在不增加成本的情况下,该方法显著减少了弱用户并提高了推荐系统对子群体的鲁棒性和总体性能
  • 相关研究
    与最近的推荐系统研究相比,该论文提出了一种新的混合框架来提高推荐系统的性能和鲁棒性
许愿开讲
PDF
原文
点赞 收藏
向作者提问
NEW
分享到Link

提问交流

提交问题,平台邀请作者,轻松获得权威解答~

向作者提问