本文提出了一种简单而有效的对比知识蒸馏方法,可以用样本对齐问题来表述,其中包括了内部和外部样本的约束条件。与传统的知识蒸馏方法不同的是,我们的方法尝试通过对齐每个样本的教师和学生的logits来恢复“黑暗知识”,而不是仅关注于最大化特征相似性或保留教师和学生特征之间的类别语义相关性。具体而言,我们的方法首先通过考虑它们的数值来最小化相同样本内的logit差异,从而保留内部样本的相似性。接下来,我们利用不同样本之间的差异性来弥合语义差异。值得注意的是,内部样本相似性和外部样本差异性的约束条件可以有效地重构成新设计的正负对的对比学习框架。正对包括来自相同样本的教师和学生的logits,而负对则是使用来自不同样本的logits。通过这种形式,我们的方法可以通过优化InfoNCE获得对比学习的简单和高效,其运行时间复杂度远远低于$O(n^2)$,其中$n$表示训练样本的总数。此外,我们的方法可以消除对超参数调整的需求,特别是与温度参数和大批量大小相关的需求。我们在三个数据集(包括CIFAR-100、ImageNet-1K和MS COCO)上进行了全面的实验。实验结果清楚地证实了所提出方法在图像分类和目标检测任务上的有效性。我们的源代码将公开在https://github.com/wencheng-zhu/CKD上。
提问交流