Personalized Pieces: Efficient Personalized Large Language Models through Collaborative Efforts

2024年06月15日
  • 简介
    个性化大型语言模型旨在根据个人用户的偏好定制交互、内容和推荐。虽然参数高效微调方法在性能和泛化方面表现出色,但它们的成本很高,而且在单独使用时会限制共同的好处。为此,我们引入了个性化碎片(Per-Pcs)框架,它允许用户通过协作努力安全地共享和组装个性化的参数高效微调。Per-Pcs涉及选择共享者,将其参数高效微调分成碎片,并为每个碎片训练门控。这些碎片被添加到一个池中,目标用户可以使用其历史数据选择和组装个性化的参数高效微调。这种方法保护隐私,并在不需要过多存储和计算需求的情况下实现细粒度用户建模。实验结果表明,Per-Pcs优于非个性化和参数高效微调检索基线,在六个任务上提供与OPPU相当的性能,但资源使用明显更低。进一步的分析突出了Per-Pcs在共享者数量和选择策略、碎片共享比率以及计算时间和存储空间的可扩展性方面的鲁棒性。Per-Pcs的模块化促进了安全共享,使LLM个性化更加高效、有效和广泛地通过协作努力实现。
  • 图表
  • 解决问题
    该论文旨在解决个性化大语言模型(LLMs)的资源消耗问题,提出了一种名为Personalized Pieces(Per-Pcs)的框架,通过协作的方式实现个性化模型的分享和组装,从而使LLMs个性化更加高效、有效和广泛可用。
  • 关键思路
    Per-Pcs框架允许用户安全地共享和组装个性化模型,包括选择共享者、将其PEFT分成片段并为每个片段训练门控。这些片段被添加到一个池中,目标用户可以使用其历史数据选择和组装个性化PEFT。该方法保护隐私并实现了细粒度的用户建模,同时不需要过多的存储和计算资源。
  • 其它亮点
    论文的实验结果表明,Per-Pcs优于非个性化和PEFT检索基线,在六个任务上提供与OPPU相当的性能,同时资源使用显著更低。此外,Per-Pcs的模块化促进了安全共享,使LLM个性化更加高效、有效和广泛可用。论文还提出了一些值得深入研究的问题,如共享者数量和选择策略、片段共享比例以及计算时间和存储空间的可扩展性。
  • 相关研究
    最近在这个领域中,还有一些相关的研究,如《Towards Efficient and Privacy-Preserving Personalization for Large-Scale Recommender Systems》、《Privacy-Preserving Personalization for Recommendation: A Survey》等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论