Parameter Efficient Tuning Allows Scalable Personalization of LLMs for Text Entry: A Case Study on Abbreviation Expansion

2023年12月21日
  • 简介
    缩写扩展是一种通过限制键入量并使用语言模型来建议扩展的策略,以加快通信速度。在这里,我们研究了个性化大型语言模型(LLM)建议的方法,基于之前的对话来增强预测的相关性,特别是在用户数据较少(~1000个样本)的情况下。具体而言,我们比较了针对缩写输入的扩展文本建议的微调、提示微调和检索增强生成。我们在一个真实的ALS患者上部署了一个8B参数的LLM的案例研究,以及对电影角色个性化的实验表明:(1)在某些情况下可能需要定制化,提示微调对这些情况具有很好的泛化能力;(2)在领域内数据(仅600个样本)上进行微调仍然有一定的收益;(3)检索增强的少样本选择也优于微调;(4)参数高效微调允许高效和可扩展的个性化。对于提示微调,我们还发现将学习的“软提示”初始化为与用户相关的概念标记比随机初始化具有更高的准确性。
  • 图表
  • 解决问题
    本论文旨在通过个性化扩展缩写输入的文本建议,提高大语言模型(LLM)的预测准确性。特别是在用户数据较少(约1000个样本)的情况下,通过以前的对话来个性化LLM的建议。
  • 关键思路
    本论文比较了微调、提示调整和检索增强生成扩展文本建议的效果,并发现定制化可能在某些情况下是必要的,提示调整可以很好地推广到这些情况。此外,领域内数据的微调仍然具有一定优势,但是检索增强少样本选择也优于微调。参数有效的调整可以实现高效和可扩展的个性化。对于提示调整,我们还发现将学习的“软提示”初始化为与用户相关的概念标记可以比随机初始化获得更高的准确性。
  • 其它亮点
    实验结果表明,个性化建议可以提高大语言模型的预测准确性。本论文采用了一个真实用户的案例研究和电影角色个性化实验来验证其方法的有效性。此外,本论文还提出了参数有效的调整方法,可以实现高效和可扩展的个性化。
  • 相关研究
    在相关研究方面,最近在个性化建议领域中还有一些相关的研究被进行,如《Personalized Language Models for Conversational Response Generation》、《A Survey of Personalized Recommendation Techniques Based on Natural Language Processing》等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论