Transparent and Clinically Interpretable AI for Lung Cancer Detection in Chest X-Rays

2024年03月28日
  • 简介
    快速发展的可解释人工智能(XAI)领域旨在解决在实际应用中使用复杂黑匣子深度学习模型所面临的信任问题。现有的后操作XAI技术最近在医疗数据上表现不佳,产生的解释不可靠,无法用于临床。为了解决这个问题,我们提出了一种基于概念瓶颈模型的前操作方法,首次将临床概念引入到分类流程中,使用户能够深入了解决策过程。在一个大型公共数据集上,我们专注于肺癌检测的二元分类任务,使用胸部X射线和相关医疗报告。与基线深度学习模型相比,我们的方法在肺癌检测方面产生了更好的分类性能(F1>0.9),同时生成的临床相关和更可靠的解释也优于现有技术。我们将我们的方法与后操作图像XAI技术LIME和SHAP以及最近在胸部X射线问题回答上运作的文本XAI工具CXR-LLaVA进行了评估。
  • 图表
  • 解决问题
    论文旨在解决使用黑盒深度学习模型进行医学数据分类时,现有的后处理可解释人工智能技术在可信度方面表现不佳的问题。作者提出了一种基于概念瓶颈模型的前处理方法,首次将临床概念引入分类管道中,以便用户深入了解决策过程。
  • 关键思路
    作者提出的基于概念瓶颈模型的前处理方法,将临床概念引入到分类管道中,以提高肺癌检测的分类性能,并生成比现有技术更可靠和临床相关的解释。
  • 其它亮点
    论文使用公共数据集进行肺部X光和相关医疗报告的二元分类任务,证明了该方法相比基线深度学习模型具有更好的分类性能(F1>0.9),同时生成的解释更为可靠。论文还与后处理图像可解释人工智能技术LIME和SHAP以及在胸部X光问答背景下操作的最新文本可解释人工智能工具CXR-LLaVA进行了比较。
  • 相关研究
    最近相关研究包括:LIME和SHAP等后处理可解释人工智能技术,以及在医学图像分类中使用概念瓶颈模型的其他工作。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论