Evaluating Post-hoc Interpretability with Intrinsic Interpretability
解决问题:本篇论文旨在解决深度学习模型缺乏可解释性的问题,并探讨了两种解释性策略:后置方法和内在方法。通过将可解释的ProtoPNet应用于组织病理学图像,与后置方法生成的显著性图进行比较,论文试图验证这种方法的有效性和可行性。
关键思路:本文提出了一种基于内在可解释性的ProtoPNet方法,用于组织病理学图像的解释性分析。通过比较后置方法生成的显著性图和ProtoPNet生成的属性图,使用10种显著性度量方法对它们进行了评估。相对于当前领域的研究,本文的关键思路在于探索了一种新型的内在可解释性方法,并提供了可行的验证方法。
其他亮点:本文使用了PatchCamelyon数据集,其中包含327,680个组织病理学图像的片段,用于验证该方法的有效性。研究人员使用了10种显著性度量方法来评估不同的解释性方法,并发现SmoothGrad和Occlusion方法与ProtoPNet的属性图重叠度最高。本文还提供了开源代码,值得进一步研究。
关于作者:主要作者包括José Pereira Amorim、Pedro Henriques Abreu、João Santos和Henning Müller。José Pereira Amorim是一位计算机视觉和机器学习专家,曾在多个国际会议上发表过相关论文。Pedro Henriques Abreu是一位计算机科学博士,他的研究兴趣包括人工智能和计算机视觉。João Santos是一位生物医学工程师,他的研究重点是医学影像分析和机器学习。Henning Müller是一位计算机科学教授,他的研究领域包括医学信息学和人工智能。
相关研究:近期的相关研究包括《Interpretability Beyond Feature Attribution: Quantitative Testing with Concept Activation Vectors (TCAV)》(Been Kim等,Google AI),以及《Towards A Rigorous Science of Interpretable Machine Learning》(Finale Doshi-Velez等,Harvard大学)。这些论文都探讨了深度学习模型的可解释性问题,提出了新的解释性方法。
论文摘要:本文讨论了卷积神经网络在医学任务中表现出的人类水平性能,但由于其缺乏可解释性,限制了其在临床上的应用。为了解决这个问题,提出了两种主要的可解释性策略:事后方法和内在方法。虽然有几种事后方法来解释深度学习模型,但每种方法提供的解释之间存在显著差异,并且由于缺乏基本事实,很难验证它们。为了解决这个挑战,本文将可内在解释的ProtoPNet适应于组织病理学成像,并比较了由其产生的属性映射和由事后方法产生的显著性映射。为了评估显著性映射方法和属性映射之间的相似性,本文从显著性模型文献中选择了10个显著性指标,并使用乳腺癌转移检测数据集PatchCamelyon验证了所提出的方法。总体而言,本文发现SmoothGrad和Occlusion与ProtoPNet的重叠度显著更大,而Deconvolution和Lime的重叠度最小。
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢