- 简介目的:确保机器学习(ML)算法在所有患者群体中安全有效,并且不会对特定患者造成不利影响,这对于临床决策和防止现有医疗卫生不平等的强化至关重要。本教程的目的是向医学信息学界介绍ML公平性的常见概念,重点关注临床应用和实践中的实施。 目标受众:由于医疗保健应用中存在公平性差距,因此本教程旨在为利用现代临床数据的研究人员和临床医生提供公平性的理解,而不需要先前的知识。 范围:我们描述了用于定义ML公平性的基本概念和方法,包括为什么医疗保健模型可能不公平的概述、用于量化公平性的指标的摘要和比较,以及一些正在进行的研究的讨论。我们通过在公开可用的电子健康记录数据集中进行死亡率预测的案例研究来说明引入的一些公平性方法。最后,我们提供了一个用户友好的R软件包,用于全面的群体公平性评估,使研究人员和临床医生能够评估自己的ML工作的公平性。
- 图表
- 解决问题在医学决策中,确保机器学习算法在所有患者群体中都是安全和有效的,不会对特定患者造成不利影响,这对于临床决策和预防现有医疗不公平至关重要。本文的目标是向医学信息学界介绍机器学习中公平性的常见概念,重点关注临床应用和实践中的实现。
- 关键思路本文介绍了定义机器学习中公平性的基本概念和方法,包括为什么医疗模型可能不公平,概括和比较用于量化公平性的指标,以及一些正在进行的研究。通过公开可用的电子健康记录数据集中的死亡率预测案例研究,展示了介绍的一些公平方法。最后,提供了一个用户友好的R包,用于全面的群体公平性评估,使研究人员和临床医生能够评估其自己的机器学习工作中的公平性。
- 其它亮点本文介绍了机器学习中公平性的基本概念和方法,并提供了一个用户友好的R包,用于全面的群体公平性评估。通过一个公开可用的电子健康记录数据集中的死亡率预测案例研究,展示了公平方法的应用。
- 最近在这个领域中,还有一些相关的研究。例如,'A Survey on Bias and Fairness in Machine Learning'、'Fairness in Machine Learning: A Survey'、'Mitigating Bias in Medical AI Models for Rare Diseases with Few-Shot Learning'等。
沙发等你来抢
去评论
评论
沙发等你来抢