- 简介在AI和算法公正的文献中,种族多样性越来越受到关注,但很少关注如何证明选择种族类别的选择以及了解人们如何被归类到这些选择的种族类别中。更少的关注被给予种族类别如何转变以及在数据集或模型的背景下种族化过程如何改变。对于由谁组成所选种族类别以及人们如何被归类到这些类别中的不清楚理解,可能会导致对这些类别的不同解释。当对种族类别和种族化过程的理解与实际的种族化过程和使用的种族类别不一致时,这些不同的解释可能会导致伤害。如果在应用的背景下,种族化过程和使用的种族类别是不相关或不存在的,也可能会导致伤害。 在本文中,我们做出了两个贡献。首先,我们演示了如何通过不清楚假设和少量的证明来选择种族类别,这可能会导致数据集的差异,这些数据集不好地代表了被混淆或未被代表的群体,以及在这些群体上表现不佳的模型。其次,我们开发了一个框架CIRCSheets,用于记录选择种族类别和种族化过程中所做的选择和假设,以便于透明地理解数据集或模型开发人员在选择或使用这些种族类别时所做的过程和假设。
- 图表
- 解决问题本论文旨在解决人工智能和算法公平性文献中对种族多样性的讨论中存在的问题,即对选定种族类别的理由不清晰,以及了解人们如何被归类到这些选择的种族类别中。
- 关键思路本文提出了CIRCSheets框架,用于记录选择种族类别和归类到这些类别的过程中所做的选择和假设,以促进透明度,帮助理解数据集或模型开发人员在选择或使用这些种族类别时所做的过程和假设。
- 其它亮点本文通过实验展示了选择不清晰的种族类别可能导致代表被混淆或未被代表的群体的数据集差异很大,以及在这些群体上表现不佳的模型。此外,本文提供了CIRCSheets框架,有助于记录种族类别选择和归类过程中的选择和假设。
- 最近的相关研究包括:1)Buolamwini和Gebru在2018年发表的“性别和皮肤类型之间的差异如何影响人脸识别技术”的论文;2)Obermeyer等人在2019年发表的“预测医疗结果中的偏差:机器学习模型的种族差异”论文。
沙发等你来抢
去评论
评论
沙发等你来抢