Explainable artificial intelligence in breast cancer detection and risk prediction: A systematic scoping review

Cancer Innovation 2024;3:e136
2024年07月12日
  • 简介
    随着人工智能(AI)的发展,数据驱动的算法在医学领域越来越受欢迎。然而,由于许多这些算法的非线性和复杂行为,这些算法的决策对于临床医生来说是不可信的,并被认为是一个黑匣子过程。因此,科学界引入了可解释的人工智能(XAI)来解决这个问题。本系统性的范围审查研究了XAI在乳腺癌检测和风险预测中的应用。我们使用系统性的搜索策略在Scopus、IEEE Explore、PubMed和Google Scholar(前50篇引用)上进行了全面的搜索。搜索时间跨度为2017年1月至2023年7月,重点关注实施XAI方法的乳腺癌数据集的同行评审研究。共有30项研究符合我们的纳入标准,并被纳入分析。结果显示,SHapley Additive exPlanations(SHAP)是乳腺癌研究中最常用的模型不可知的XAI技术,其用途包括解释模型预测结果、诊断和分类生物标志物、以及预后和生存分析。此外,SHAP模型主要解释基于树的集成机器学习模型。最常见的原因是SHAP是模型不可知的,这使它在解释任何模型预测时都受欢迎和有用。此外,它相对容易有效地实现,并完全适合表现良好的模型,如基于树的模型。可解释的AI提高了AI-enabled健康系统和医疗设备的透明度、可解释性、公平性和可信度,最终提高了护理质量和结果。
  • 图表
  • 解决问题
    XAI在乳腺癌检测和风险预测中的应用
  • 关键思路
    使用SHAP解释模型预测结果,提高模型的透明度、可解释性、公平性和可信度
  • 其它亮点
    使用系统化搜索策略,共纳入30篇研究;SHAP是目前应用最广泛的XAI技术,主要用于解释基于树的集成机器学习模型;XAI可以提高AI辅助的医疗系统和设备的质量和结果
  • 相关研究
    与该论文相关的研究包括:1. "Explainable deep learning models for breast cancer diagnosis based on gene expression profiling";2. "Interpretability of machine learning-based prediction models in breast cancer diagnosis and prognosis: a survey"
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论