- 简介训练后处理从根本上改变了大语言模型(LLMs)的行为,但其对模型内部参数空间的影响仍不清楚。在本研究中,我们对预训练大语言模型中主要线性层进行了系统的奇异值分解(SVD)分析,重点关注两种广泛采用的训练后处理方法:指令微调(instruction tuning)和长思维链(Long-CoT)蒸馏。我们的分析揭示了两种一致且出人意料的结构变化:(1)各层奇异值呈现出近乎均匀的几何缩放,理论上可调节注意力分数;(2)每个矩阵的左、右奇异向量均经历高度一致的正交变换。破坏这种正交一致性会导致性能严重下降。基于这些发现,我们提出一个简单而有效的框架,将训练后处理解释为在预训练参数空间中对固定子空间的重新参数化。进一步实验表明,奇异值的缩放表现为一种次要效应,类似于温度调节,而核心的功能性变换则源于奇异向量的协同旋转。这些结果挑战了当前将大模型参数空间视为黑箱的主流观点,首次揭示了参数在训练过程中演化的明确规律,为深入探究模型参数变化提供了新的视角。
-
- 图表
- 解决问题论文试图解决的问题是:在大语言模型(LLMs)经过后训练(如指令微调和长链式思维蒸馏)后,其内部参数空间发生了怎样的结构性变化。尽管后训练显著改变了模型行为,但其对参数空间的影响长期以来缺乏系统性理解,尤其缺乏可解释的规律。这个问题在当前研究中尚未被充分探索,因此具有新颖性。
- 关键思路论文提出通过奇异值分解(SVD)对预训练和后训练的大模型线性层进行系统分析,发现后训练并非随机调整参数,而是引入了两种一致且可解释的结构变化:一是奇异值的近似均匀几何缩放,二是左右奇异向量经历高度一致的正交变换。关键新意在于揭示了后训练本质上是对预训练参数空间中固定子空间的重参数化,尤其是奇异向量的协同旋转是功能变化的核心,而非传统认为的权重直接学习。这一视角将后训练从‘黑箱’转向‘结构可解释’。
- 其它亮点作者对多个主流LLM(如Llama系列)的关键线性层进行了系统的SVD分析,覆盖指令微调和Long-CoT蒸馏两种广泛使用的后训练方法。实验设计严谨,通过破坏奇异向量的正交一致性验证其对性能的关键作用,发现会导致性能急剧下降。研究未提及开源代码,但提供了可复现的数学分析框架。值得关注的是,奇异值缩放被类比为‘温度调节’,而核心功能变化来自子空间旋转,这一发现为模型编辑、知识注入和高效微调提供了全新方向,值得深入研究。
- 1. Towards Understanding Fine-Tuning Dynamics of Large Language Models 2. The Role of Pre-training in Compositional Generalization 3. On the Evolution of Representation in Transformer Models 4. Parameter-Efficient Fine-Tuning with Low-Rank Adaptation (LoRA) 5. Intrinsic Dimensionality Explains the Effectiveness of Language Model Fine-Tuning
NEW
提问交流
提交问题,平台邀请作者,轻松获得权威解答~
向作者提问

提问交流