- 简介我们提出了一个可解释的框架——公平感知可解释建模(FAIM),旨在提高模型的公平性而不影响性能,包括交互式界面,以从一组高性能模型中确定“更公平”的模型,并促进数据驱动证据和临床专业知识的整合,以增强情境化公平性。我们在两个真实世界的数据库MIMIC-IV-ED和SGH-ED中通过预测医院入院来展示了FAIM的价值,减少了性别和种族偏见。我们证明了对于这两个数据集,FAIM模型不仅表现出令人满意的区分性能,而且通过公认的公平度量显著减轻了偏见,优于常用的偏见缓解方法。我们的方法证明了在不牺牲性能的情况下提高公平性的可行性,并提供了一种建模方式,邀请领域专家参与,促进了多学科努力实现定制化的AI公平性。
- 图表
- 解决问题如何在不影响性能的情况下提高机器学习模型的公平性,特别是在高风险领域,例如医疗保健?
- 关键思路提出了一个可解释的框架FAIM,通过交互式界面从一组高性能模型中识别出更公平的模型,并促进数据驱动证据和临床专业知识的整合以增强情境化公平性。
- 其它亮点使用MIMIC-IV-ED和SGH-ED两个真实世界数据库来减少性别和种族偏见,FAIM模型不仅表现出令人满意的判别性能,而且还显著缓解了偏见,超过了常用的偏见缓解方法。
- 与此相关的研究包括:《A survey on bias and fairness in machine learning》、《Fairness and machine learning》、《Mitigating bias in algorithmic hiring: Evaluating claims and practices》等。
沙发等你来抢
去评论
评论
沙发等你来抢