- 简介随着机器学习在医疗保健领域的普及,自动化社会偏见可能进一步加剧健康差距,这构成了一个重大风险。我们从特征选择的角度探讨算法公平性。传统的特征选择方法通过删除资源密集、相关或不相关的特征来识别更好的决策,但忽视了这些因素在不同子组中可能存在的差异。为了解决这些问题,我们评估了一种公平的特征选择方法,该方法考虑到所有人口群体的平等重要性。我们在特征选择过程中同时考虑了公平度量和错误度量,以确保在最小化偏见和全局分类错误之间取得平衡。我们在三个公开的医疗保健数据集上测试了我们的方法。在所有三个数据集上,我们观察到公平度量的改善,同时平衡准确率只有轻微下降。我们的方法解决了公平机器学习背景下的分配和程序公平性问题。
- 解决问题解决机器学习在医疗保健中可能导致偏见和不公平性的问题,提出一种公平特征选择的方法。
- 关键思路提出一种公平特征选择方法,考虑所有人群的平等重要性,并在特征选择过程中同时考虑公平度和错误度指标,以实现偏差和全局分类误差的平衡。
- 其它亮点论文在三个公开医疗保健数据集上测试了该方法,发现公平度指标得到了改善,同时平衡准确度有所降低。该方法可以解决公平机器学习中的分配公平和程序公平问题。
- 最近的相关研究包括公平机器学习、公平特征选择和公平医疗保健。相关论文包括“Fairness in Machine Learning: Lessons from Political Philosophy”和“Fair Feature Selection for Robust Prediction”。
沙发等你来抢
去评论
评论
沙发等你来抢