Updating the Minimum Information about CLinical Artificial Intelligence (MI-CLAIM) checklist for generative modeling research

2024年03月05日
  • 简介
    最近生成模型的进展,包括大型语言模型(LLMs)、视觉语言模型(VLMs)和扩散模型,加速了医学自然语言和图像处理领域的发展,标志着生物医学模型开发和部署方式的重大范式转变。虽然这些模型高度适应新任务,但扩展和评估它们的使用也带来了新的挑战,这些挑战在以前的框架中没有得到解决。特别是,这些模型能够在几乎没有专门训练数据的情况下产生有用的输出(“零”或“少量样本”方法),以及它们的输出具有开放性,这需要制定更新的指南来使用和评估这些模型。针对美国第141103号行政命令所确定的临床AI工具开发标准和最佳实践的空白,以及几个新兴的国家临床AI评估网络,我们开始通过基于“临床人工智能建模最小信息”(MI-CLAIM)清单来形成这些指南。MI-CLAIM清单最初于2020年开发,提供了一组六个步骤的指南,以确保透明、可重复的医学人工智能(AI)研究所需的最少信息。在这里,我们提出了对原清单的修改,以突出生成模型与传统临床研究AI模型在训练、评估、可解释性和可重复性方面的差异。这份更新后的清单还试图澄清队列选择报告,并增加了与伦理标准的一致性相关的其他项目。
  • 作者讲解
  • 图表
  • 解决问题
    如何使用生成模型在医学领域中进行零样本和少样本学习,以及如何评估这些模型的性能和可解释性?
  • 关键思路
    在现有的MI-CLAIM检查清单基础上,提出了针对生成模型的修改版检查清单,强调了这些模型在训练、评估、可解释性和可重现性方面的不同之处,并添加了对伦理标准的对齐要求。
  • 其它亮点
    论文提出的修改版MI-CLAIM检查清单对于使用生成模型进行医学研究具有指导意义。文章还介绍了几种生成模型在医学领域中的应用,包括自然语言处理和图像处理。实验使用了多个数据集,并说明了模型的性能和可解释性。
  • 相关研究
    最近的一些相关研究包括:《A Survey on Generative Models for Electronic Health Records》、《Few-Shot Learning in Medical Image Analysis: A Survey》、《Interpretability of Machine Learning-based Prediction Models in Healthcare》等。
许愿开讲
PDF
原文
点赞 收藏
向作者提问
NEW
分享到Link

提问交流

提交问题,平台邀请作者,轻松获得权威解答~

向作者提问