葡萄牙贝拉内大学最新《医学诊断中可解释深度学习方法》综述,值得关注!
论文链接:
https://arxiv.org/abs/2205.04766
深度学习的显著成功引发了人们对其在医学诊断中的应用的兴趣。即使最先进的深度学习模型在对不同类型的医疗数据进行分类时达到了人类水平的准确性,但这些模型在临床工作流程中很难被采用,主要是因为它们缺乏可解释性。深度学习模型的黑盒性提出了设计策略来解释这些模型的决策过程的需要,这导致了可解释人工智能(XAI)这个话题的产生。在此背景下,我们提供了XAI应用于医疗诊断的全面综述,包括可视化、文本和基于示例的解释方法。此外,这项工作回顾了现有的医学成像数据集和现有的指标,以评估解释的质量。作为对大多数现有综述的补充,我们包含了一组基于报告生成方法之间的性能比较。最后,还讨论了XAI在医学影像应用中的主要挑战。
这项综述提供了以下贡献:
-
回顾最近关于医学成像中可解释深度学习主题的调研,包括从每个工作中得出的主要结论,以及对我们调研的比较分析。
-
用于医学成像的深度学习方法可解释性研究中常用的数据集的详尽列表。
-
全面调研最先进的可解释医学成像方法,包括事后模型和固有的可解释模型。
-
对基准可解释性方法常用的度量标准的完整描述,无论是可视化的还是文本的解释。关于文本解释质量的可解释医学成像方法的基准。
-
医学影像中可解释深度学习的未来研究方向
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢