- 简介$\textbf{目的}$:确保机器学习(ML)算法在所有患者群体中都是安全和有效的,不会对特定患者造成不利影响,这对临床决策和防止现有医疗不公平现象的强化至关重要。本教程的目的是向医学信息学社区介绍ML中公平性的常见概念,重点关注临床应用和实践中的实施。 $\textbf{目标受众}$:随着公平性在各种医疗应用中出现差距,本教程旨在为使用现代临床数据的研究人员和临床医生提供公平性的理解,而不需要先前的知识。 $\textbf{范围}$:我们描述了用于定义ML中公平性的基本概念和方法,包括为什么医疗模型可能不公平的概述和比较用于量化公平性的度量标准的总结,并讨论了一些正在进行的研究。我们通过公开可用的电子健康记录数据集中的死亡率预测案例研究来说明一些公平性方法的应用。最后,我们提供了一个用户友好的R软件包,用于全面评估群体公平性,使研究人员和临床医生能够评估自己的ML工作的公平性。
- 图表
- 解决问题如何确保机器学习算法在所有患者群体中安全有效,不会对特定患者造成不利影响,这对于临床决策和防止现有医疗不公平性的强化至关重要。本文旨在向医学信息学界介绍机器学习中公平性的常见概念,重点关注临床应用和实践中的实现。
- 关键思路本文介绍了定义机器学习中公平性的基本概念和方法,包括为什么医疗模型可能不公平、量化公平性的指标总结和比较,以及一些正在进行的研究。通过公开可用的电子健康记录数据集中的死亡率预测案例研究,展示了一些公平性方法。最后,提供了一个用户友好的R包,用于全面评估群体公平性,使研究人员和临床医生能够评估自己的机器学习工作中的公平性。
- 其它亮点本文提供了一个用户友好的R包,用于全面评估群体公平性,使研究人员和临床医生能够评估自己的机器学习工作中的公平性。同时,通过公开可用的电子健康记录数据集中的死亡率预测案例研究,展示了一些公平性方法。本文还介绍了定义机器学习中公平性的基本概念和方法,包括为什么医疗模型可能不公平、量化公平性的指标总结和比较,以及一些正在进行的研究。
- 最近在这个领域中,还有一些相关的研究,如“Improving Fairness in Machine Learning for Healthcare”和“Fairness in Machine Learning for Healthcare: An Overview”。
沙发等你来抢
去评论
评论
沙发等你来抢