A Survey on Self-Evolution of Large Language Models

2024年04月22日
  • 简介
    大型语言模型(LLM)在各个领域和智能代理应用中都取得了显著进展。然而,从人类或外部模型监督中学习的当前LLM成本高昂,并且随着任务复杂性和多样性的增加,可能会面临性能瓶颈。为了解决这个问题,自我演进方法使LLM能够自主获取、精炼和学习模型本身生成的经验,正在迅速发展。这种受人类经验式学习过程启发的新的训练范式为将LLM扩展到超级智能提供了潜力。在这项工作中,我们提出了一个关于LLM自我演进方法的综合调查。我们首先提出了一个自我演进的概念框架,并将演进过程概括为由四个阶段组成的迭代周期:经验获取、经验精炼、更新和评估。其次,我们对LLM和基于LLM的代理的演进目标进行分类;然后,我们总结了文献,并为每个模块提供分类和见解。最后,我们指出了现有的挑战,并提出了未来的方向,以改进自我演进框架,为研究人员提供关键见解,以加快自我演进LLM的发展。
  • 图表
  • 解决问题
    自进化方法在大型语言模型中的应用
  • 关键思路
    通过自我生成、优化、学习经验的方式,使大型语言模型能够自我进化,从而解决当前由于任务复杂度和多样性而导致的性能瓶颈问题。
  • 其它亮点
    论文提出了一个自进化的概念框架,包括经验获取、经验优化、更新和评估四个阶段。针对大型语言模型和基于语言模型的智能代理的进化目标进行分类和总结,并提供了相应的分类法和见解。论文指出了现有挑战,并提出了未来方向。
  • 相关研究
    最近的相关研究包括:《GPT-3: Language Models are Few-Shot Learners》、《Unsupervised Learning of Probably Symmetric Deformable 3D Objects from Images in the Wild》等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论