- 简介在人工智能(AI)特别是医疗AI中解决公平性问题对于确保公平的医疗保健结果至关重要。最近为增强公平性而引入了新的方法和医疗AI数据集。然而,在不同医学影像技术(例如不同的视网膜成像模式)用于患者诊断的情况下,领域转移下的公平性问题几乎未被探索。本文提出了FairDomain,这是一项开创性的系统研究,旨在了解不同领域之间偏差如何转移,采用最先进的领域自适应(DA)和泛化(DG)算法,用于医学分割和分类任务。我们还引入了一种新颖的即插即用的公平身份关注(FIA)模块,该模块适应各种DA和DG算法,通过使用自我关注来根据人口属性调整特征重要性,从而提高公平性。此外,我们为同一患者队列的两种成像模式在医学分割和分类任务上策划了第一个关注公平性的数据集,以在领域转移场景中严格评估公平性。排除源域和目标域之间人口分布变化的混淆影响,将允许更清晰地量化领域转移模型的性能。我们广泛的评估表明,所提出的FIA显着提高了所有领域转移设置(即DA和DG)的模型性能,考虑到不同人口统计学特征的公平性,这在分割和分类任务上均优于现有方法。代码和数据可在https://ophai.hms.harvard.edu/datasets/harvard-fairdomain20k上访问。
- 图表
- 解决问题论文旨在解决医疗人工智能中的算法公平性问题,特别是在领域转移的情况下如何保证公平性。
- 关键思路论文提出了一种新的系统性研究方法,使用最先进的领域自适应和泛化算法来解决领域转移中的算法偏见问题,并引入了一种新的自我关注的公平身份模块来提高公平性。
- 其它亮点论文提供了一个新的数据集,用于评估领域转移情况下的算法公平性,并使用自我关注的公平身份模块来提高算法的公平性。实验结果表明,该方法在医学分割和分类任务中均表现出色。
- 最近的相关研究包括使用不同的公平性指标和方法来提高医疗人工智能的公平性,如“基于公平性的深度学习”和“公平性的医疗图像分类”。
沙发等你来抢
去评论
评论
沙发等你来抢