- 简介主动学习旨在通过优先选择最有助于学习的实例来最小化注释工作量。然而,许多主动学习策略在“冷启动”问题上存在困难,需要大量的初始数据才能发挥作用。这种限制通常会降低它们对预训练模型的实用性,因为这些模型在少量样本的情况下已经表现良好。为了解决这个问题,我们介绍了ActiveLLM,一种新颖的主动学习方法,它利用大型语言模型,如GPT-4、Llama 3和Mistral Large来选择实例。我们证明了ActiveLLM在少量样本场景下显著提高了BERT分类器的分类性能,优于传统的主动学习方法和少样本学习方法SetFit。此外,ActiveLLM可以扩展到非少样本场景,允许进行迭代选择。通过这种方式,ActiveLLM甚至可以帮助其他主动学习策略克服它们的冷启动问题。我们的结果表明,ActiveLLM为改善各种学习设置下的模型性能提供了一个有前途的解决方案。
- 图表
- 解决问题ActiveLLM试图解决在少样本情况下,主动学习方法需要大量初始数据的问题。
- 关键思路ActiveLLM利用大型语言模型来选择实例,从而提高BERT分类器的性能。
- 其它亮点ActiveLLM在少样本情况下优于传统主动学习方法和SetFit,可以扩展到非少样本情况。实验使用了GPT-4、Llama 3和Mistral Large等数据集。
- 最近的相关研究包括主动学习、少样本学习和大型语言模型的应用。
沙发等你来抢
去评论
评论
沙发等你来抢