Synthetic Data (Almost) from Scratch: Generalized Instruction Tuning for Language Models

2024年02月20日
  • 简介
    我们介绍了一种名为GLAN的广泛可扩展的大语言模型(LLM)指令调整方法。与先前依赖种子示例或现有数据集构建指令调整数据的方法不同,GLAN仅利用预先策划的人类知识和能力分类法作为输入,并在所有学科领域生成大规模的合成指令数据。具体而言,受人类教育系统中的系统结构启发,我们通过半自动化方式将人类知识和能力分解为各种领域、子领域和最终的不同学科,利用LLMs进行辅助。随后,我们为每个学科生成了全面的科目清单,并根据每个科目量身定制了教学大纲,再次利用LLMs。通过教学大纲中每个课堂会话中详细的精细关键概念,我们能够生成广泛覆盖人类知识和技能全谱的多样化指令。对大型语言模型(例如Mistral)的广泛实验表明,GLAN在数学推理、编码、学术考试、逻辑推理和一般指令遵循等多个方面表现出色,而不需要使用这些任务的特定培训数据。此外,GLAN允许轻松定制,新的领域或技能可以通过简单地将新节点纳入我们的分类法中来添加。
  • 图表
  • 解决问题
    本文旨在提出一种通用的、可扩展的大语言模型(LLMs)指令调整方法,名为GLAN。该方法旨在生成跨学科的大规模合成指令数据,以覆盖人类知识和技能的整个范围。
  • 关键思路
    GLAN利用预先策划的人类知识和能力分类法作为输入,通过LLMs生成精细的关键概念,以生成跨越人类知识和技能范围的多样化指令。
  • 其它亮点
    本文的亮点包括:使用GLAN生成的指令数据在数学推理、编码、学术考试、逻辑推理和一般指令遵循等方面表现出色;GLAN允许简单的定制化,只需将新节点纳入分类法即可;本文的实验设计详细,使用了大型语言模型(例如Mistral),并且提供了开源代码。
  • 相关研究
    近期在此领域的相关研究包括:《GPT-3》、《GShard》、《XLNet》等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论