- 简介面部属性分类(FAC)在广泛应用中具有重要的前景。然而,传统方法训练的FAC模型可能存在不公平性,因为其在不同的数据子群体中表现出准确性的不一致性。这种不公平性主要归因于数据中的偏差,其中一些虚假属性(例如男性)与目标属性(例如微笑)具有统计相关性。大多数现有的公平感知方法依赖于虚假属性的标签,而这些标签在实践中可能无法获得。本文提出了一种新颖的、基于生成的两阶段框架,用于在没有额外注释的情况下训练一个公平的FAC模型。首先,我们基于生成模型识别潜在的虚假属性。值得注意的是,它通过明确显示图像空间中的虚假属性来增强可解释性。随后,对于每个图像,我们首先使用从均匀分布中采样的随机程度编辑虚假属性,同时保持目标属性不变。然后,我们通过促进模型对这些增强的不变性来训练一个公平的FAC模型。在三个常见数据集上进行的广泛实验表明,我们的方法在促进FAC的公平性的同时不会损害准确性。代码在https://github.com/heqianpei/DiGA中。
-
- 图表
- 解决问题解决问题:如何在不需要额外注释的情况下,训练公平的面部属性分类(FAC)模型?
- 关键思路关键思路:提出了一种基于生成模型的两阶段框架,通过对潜在的不公平属性进行随机编辑来训练公平的FAC模型,同时保持目标属性不变。
- 其它亮点亮点:该方法可以提高FAC的公平性,而不会牺牲准确性,并且在三个常见数据集上进行了广泛的实验,证明了其有效性。研究者还开源了代码。
- 相关研究:在这个领域中,还有一些相关的研究,如《Learning Fair Face Recognition Embeddings》、《FairFace: Face Attribute Dataset for Balanced Race, Gender, and Age》等。
NEW
提问交流
提交问题,平台邀请作者,轻松获得权威解答~
向作者提问

提问交流