- 简介Expansive Matching of Experts (EMOE)是一种新颖的方法,利用支持扩展、外推伪标签来提高对于超出分布(OOD)点的预测和不确定性拒绝。我们提出了一种扩展数据增强技术,可以在潜在空间中生成OOD实例,并采用经验试验方法来过滤增强的扩展点以进行伪标记。EMOE利用多个基础专家的多样化伪标记者在增强数据上来提高OOD性能,通过具有多个头(每个专家一个)的共享MLP来实现。我们证明EMOE在表格数据上相比于最先进的方法具有更优异的性能。
- 图表
- 解决问题本论文旨在提高对于out-of-distribution(OOD)点的预测和不确定性拒绝能力,通过使用Expansive Matching of Experts(EMOE)这一新的方法。
- 关键思路EMOE方法使用支持扩展的外推伪标签来改进对OOD点的预测和不确定性拒绝能力。该方法利用扩展数据增强技术在潜在空间中生成OOD实例,并使用多个基础专家作为伪标签器来提高OOD性能。
- 其它亮点论文提出了一种新的方法来解决OOD问题,实现了更好的性能。同时,论文还提出了一种扩展数据增强技术来生成OOD实例,并使用了多个基础专家作为伪标签器。实验结果表明,EMOE方法比现有方法表现更好。
- 最近的相关研究包括Deep Ensembles、ODIN、Mahalanobis距离等方法。
沙发等你来抢
去评论
评论
沙发等你来抢