- 简介大型语言模型(LLMs)在少量样本的上下文学习(ICL)方面表现出色——在推理时从上下文中提供少量示例进行学习,而不进行任何权重更新。新扩展的上下文窗口使我们能够研究具有数百或数千个示例的ICL——即众多示例的情况。从少量示例到众多示例,我们观察到在各种生成和判别任务中都有显着的性能提升。虽然有前途,但众多示例的ICL可能会受到人类生成示例的可用数量的限制。为了缓解这种限制,我们探索了两种新的设置:强化和无监督ICL。强化ICL使用模型生成的思维链理由代替人类示例。无监督ICL完全从提示中删除理由,并仅用特定于领域的问题提示模型。我们发现,无论是强化ICL还是无监督ICL,在众多示例的情况下都可以非常有效,特别是在复杂的推理任务上。最后,我们证明,与少量示例学习不同,众多示例学习在覆盖预训练偏差和学习具有数值输入的高维函数方面非常有效。我们的分析还揭示了下一个标记预测损失作为下游ICL性能指标的局限性。
- 图表
- 解决问题论文旨在探讨在上下文中进行少量示例学习的情况下,如何将其扩展到使用数百或数千个示例的情况,并提高性能。同时,论文探索了两种新的情境:强化和无监督示例学习,以减少依赖人类生成示例的限制。
- 关键思路论文提出了一种在上下文中进行大量示例学习的方法,称为多次学习(many-shot learning),并探索了两种新的情境:强化和无监督示例学习。这些方法可以在复杂的推理任务上实现高性能,并有效地消除了预训练偏差。
- 其它亮点论文的实验结果表明,多次学习方法可以在复杂的推理任务上实现高性能,并且可以有效地消除预训练偏差。同时,论文提出的强化和无监督示例学习方法可以减少依赖人类生成示例的限制。论文还使用了多个数据集进行了广泛的实验,并且开源了代码。
- 最近的相关研究主要集中在少量示例学习(few-shot learning)和上下文中的学习(in-context learning)上。例如,Meta-Learning和Prototypical Networks都是在少量示例学习上取得了很好的效果。此外,BERT和GPT-2等预训练模型也在上下文中的学习上取得了巨大的成功。
沙发等你来抢
去评论
评论
沙发等你来抢