EMOE: Expansive Matching of Experts for Robust Uncertainty Based Rejection

2024年06月03日
  • 简介
    Expansive Matching of Experts (EMOE)是一种新颖的方法,利用支持扩展、外推伪标签来提高对于超出分布(OOD)点的预测和不确定性拒绝。我们提出了一种扩展数据增强技术,可以在潜在空间中生成OOD实例,并采用经验试验方法来过滤增强的扩展点以进行伪标记。EMOE利用多个基础专家的多样化伪标记者在增强数据上来提高OOD性能,通过具有多个头(每个专家一个)的共享MLP来实现。我们证明EMOE在表格数据上相比于最先进的方法具有更优异的性能。
  • 图表
  • 解决问题
    本论文旨在提高对于out-of-distribution(OOD)点的预测和不确定性拒绝能力,通过使用Expansive Matching of Experts(EMOE)这一新的方法。
  • 关键思路
    EMOE方法使用支持扩展的外推伪标签来改进对OOD点的预测和不确定性拒绝能力。该方法利用扩展数据增强技术在潜在空间中生成OOD实例,并使用多个基础专家作为伪标签器来提高OOD性能。
  • 其它亮点
    论文提出了一种新的方法来解决OOD问题,实现了更好的性能。同时,论文还提出了一种扩展数据增强技术来生成OOD实例,并使用了多个基础专家作为伪标签器。实验结果表明,EMOE方法比现有方法表现更好。
  • 相关研究
    最近的相关研究包括Deep Ensembles、ODIN、Mahalanobis距离等方法。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论