- 简介预训练的大型语言模型(LLMs)目前是解决绝大部分自然语言处理任务的最先进技术。虽然许多实际应用程序仍需要微调才能达到令人满意的性能水平,但其中许多应用程序处于低数据范围,使得微调变得具有挑战性。为了解决这个问题,我们提出了LLM2LLM,这是一种有针对性和迭代的数据增强策略,它使用一个教师LLM来增强一个小的种子数据集,通过增加可用于特定任务的其他数据来进行微调。LLM2LLM (1) 在初始种子数据上微调基线学生LLM,(2) 评估并提取模型错误的数据点,(3) 使用教师LLM根据这些错误的数据点生成合成数据,然后将其添加回训练数据中。这种方法通过训练期间LLM对错误预测数据点的信号进行放大,并将其重新整合到数据集中,以便更专注于LLM的更具挑战性的示例。我们的结果表明,LLM2LLM显著提高了低数据范围内LLMs的性能,优于传统的微调和其他数据增强基线。LLM2LLM减少了对劳动密集型数据策划的依赖,并为更可扩展和高性能的LLM解决方案铺平了道路,使我们能够解决数据受限的领域和任务。使用LLaMA2-7B学生模型,在低数据范围内,我们在GSM8K数据集上实现了高达24.2%的改进,在CaseHOLD上实现了32.6%的改进,在SNIPS上实现了32.0%的改进,在TREC上实现了52.6%的改进,在SST-2上实现了39.8%的改进,这些改进均优于常规微调。
-
- 图表
- 解决问题本文试图解决在低数据量情况下fine-tuning的挑战,提出了一种基于LLM的数据增强策略LLM2LLM。
- 关键思路LLM2LLM使用一个教师LLM来生成错误数据点的合成数据,以增强初始种子数据集,从而提高LLM的性能。
- 其它亮点实验结果表明,LLM2LLM在低数据量情况下显著提高了LLM的性能,比传统的fine-tuning和其他数据增强策略更优。该方法减少了对数据筛选的依赖,为更可扩展和高性能的LLM解决方案铺平了道路。本文使用了多个数据集,取得了显著的性能提升。
- 最近的相关研究包括使用数据增强方法提高LLM性能的其他论文,如EDA和Backtranslation。
- 2
NEW
提问交流
提交问题,平台邀请作者,轻松获得权威解答~
向作者提问

提问交流