- 简介不同深度神经网络所学习到的表征在何时以及为何相似,是当前研究的一个活跃课题。我们选择从可识别性理论的角度来探讨这些问题,该理论指出,表征相似性的度量应该对那些不改变模型分布的变换保持不变。我们专注于一个模型家族,其中包含几种流行的预训练方法,例如自回归语言模型,并研究生成接近分布的模型是否具有相似的表征。我们证明了模型分布之间的较小Kullback-Leibler散度并不能保证相应的表征相似。这一结论的重要推论是,即使模型无限接近最大化似然,它们仍可能学习到不相似的表征,这一现象也在我们在CIFAR-10数据集上训练的模型的实证观察中得到了反映。随后,我们定义了一种分布距离,其接近性意味着表征的相似性。在合成实验中,我们发现更宽的网络学习到的分布在这种距离下更接近,并且其表征也更加相似。我们的结果建立了分布接近性与表征相似性之间的联系。
- 图表
- 解决问题该论文探讨了不同深度神经网络学习到的表示为何以及何时相似的问题。这是一个活跃的研究领域,尽管已有研究关注表示相似性,但本文从可辨识性理论的角度提出了一种新的分析框架,试图解释模型分布接近时其内部表示是否必然相似。
- 关键思路论文的核心思路是从可辨识性理论出发,定义了一个衡量表示相似性的标准,该标准对保持模型分布不变的变换具有不变性。作者证明了即使模型分布之间的KL散度很小,其对应的表示也可能不相似。此外,他们提出了一个新的分布距离度量,使得分布接近能够保证表示相似性。这一思路为理解模型分布与表示之间的关系提供了新的理论基础。
- 其它亮点论文通过理论证明和实验证明了模型分布接近并不一定导致表示相似,并在CIFAR-10数据集上进行了实验验证。此外,作者还发现更宽的网络倾向于学习分布更接近且表示更相似的结果。这些结论为设计更好的预训练方法提供了启发。虽然论文未提及代码开源,但其提出的分布距离度量值得进一步探索,尤其是在大规模语言模型中的应用。
- 相关研究包括:1) 表示相似性的度量方法,如RDM(Representational Dissimilarity Matrix);2) 深度学习中的不变性和等变性研究,例如《On the Expressive Power of Invariant and Equivariant Neural Networks》;3) 预训练模型的分布特性分析,如《Understanding Self-Supervised Learning Dynamics without Contrastive Pairs》;4) 神经网络宽度对表示的影响,例如《Wide Residual Networks》。
沙发等你来抢
去评论
评论
沙发等你来抢