This Looks Better than That: Better Interpretable Models with ProtoPNeXt

2024年06月20日
  • 简介
    原文最后一段摘要的意思是:原型部件模型是计算机视觉中黑匣子深度学习模型的一种流行的可解释性替代方案。然而,它们很难训练,对超参数调整非常敏感,这限制了它们在新数据集上的应用和我们对哪些方法真正改善了它们的性能的理解。为了促进对原型部件网络(ProtoPNets)的仔细研究,我们创建了一个集成原型部件模型组件的新框架——ProtoPNeXt。使用ProtoPNeXt,我们展示了将贝叶斯超参数调整和角度原型相似度度量应用于原始ProtoPNet足以在多个主干网上为CUB-200的原型部件模型产生新的最先进的准确性。我们进一步使用这个框架来联合优化准确性和原型可解释性,如ProtoPNeXt中包含的度量所衡量的那样。使用相同的资源,这产生了具有显著优越的语义和准确性变化在+1.3%到-1.5%之间的模型。代码和训练模型将在发表后公开发布。
  • 图表
  • 解决问题
    本文旨在解决原型-部件模型的训练问题,尤其是在新数据集上的应用和理解哪种方法能够真正提高其性能方面的问题。
  • 关键思路
    本文提出了一个新的框架ProtoPNeXt,用于集成原型-部件模型的组件,并使用贝叶斯超参数调整和角度原型相似度度量来优化模型性能。同时,该框架还可以优化准确性和原型可解释性,最终产生具有更高语义的模型。
  • 其它亮点
    本文的实验结果在CUB-200数据集上取得了新的最高准确率,并且展示了如何使用ProtoPNeXt来优化模型的可解释性。作者将代码和训练模型公开发布。
  • 相关研究
    最近的相关研究包括:"Interpretable Convolutional Neural Networks"和"Part-Stacked CNN for Fine-Grained Visual Categorization"。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论