- 简介本文介绍了统一分类的概念,它采用统一的阈值对所有样本进行分类,而不是根据每个样本适应性地分类。我们还提出了统一分类准确性作为衡量模型在统一分类中表现的指标。此外,我们从一个朴素的损失开始,推导出了适合统一分类的损失函数,即将BCE函数与统一偏差相结合的损失函数。我们证明了统一阈值可以通过偏差学习得到。在六个分类数据集和三个特征提取模型上进行的广泛实验表明,与SoftMax损失相比,使用BCE损失训练的模型不仅表现出更高的统一分类准确性,而且还具有更高的样本分类准确性。此外,从BCE损失中学习得到的偏差非常接近于统一分类中使用的统一阈值。使用BCE损失训练的模型提取的特征不仅具有统一性,而且还表现出更好的类内紧密性和类间区别性,从而在面部识别等开放式任务中表现出卓越的性能。
- 图表
- 解决问题本文介绍了统一分类的概念,采用统一阈值对所有样本进行分类,而不是针对每个单独样本进行自适应阈值分类。论文旨在解决如何提高模型在统一分类任务中的性能。
- 关键思路本文提出了一种适用于统一分类的损失函数——BCE损失函数加上统一偏置。论文通过实验证明,相比于SoftMax损失函数,使用BCE损失函数训练的模型不仅在统一分类准确率上表现更好,而且在样本分类准确率上也更高。
- 其它亮点本文使用了六个分类数据集和三个特征提取模型进行广泛实验,结果表明,使用BCE损失函数训练的模型不仅具有统一性,而且具有更好的类内紧密性和类间区分性,因此在人脸识别等开放式任务中表现更好。此外,论文还展示了统一阈值可以通过学习偏置来实现。
- 最近的相关研究包括使用不同损失函数进行训练的模型的比较,如Triplet Loss和Center Loss等。
沙发等你来抢
去评论
评论
沙发等你来抢