(Unfair) Norms in Fairness Research: A Meta-Analysis

Jennifer Chien ,
A. Stevie Bergman ,
Kevin R. McKee ,
Nenad Tomasev ,
Vinodkumar Prabhakaran ,
Rida Qadri ,
Nahema Marchal ,
William Isaac
36
热度
2024年06月17日
  • 简介
    算法公正性已成为人工智能(AI)研究中的一个重要关注点。然而,开发公正的AI系统并不是一个客观的过程。公正性是一个固有的主观概念,受到参与研究和开发的人的价值观、经验和身份的影响。为了更好地理解当前公正研究中嵌入的规范和价值观,我们对两个主要的AI公正和伦理会议AIES和FAccT的算法公正论文进行了元分析,涵盖了2018年至2022年的139篇论文的最终样本。我们的调查揭示了两个令人担忧的趋势:首先,美国为中心的视角在整个公正性研究中占主导地位;其次,公正性研究普遍依赖于人类身份的二进制编码(例如,“黑人/白人”,“男性/女性”)。这些发现突显了当前研究经常忽视身份和生活经验的复杂性,最终未能在定义算法偏见和公正性时代表多样化的全球背景。我们讨论了这些研究设计选择的局限性,并提出了促进更具包容性和代表性的公正AI系统方法的建议,敦促实现一种拥抱人类身份和价值观的细致、全球性的范式转变。
  • 图表
  • 解决问题
    算法公平性在人工智能研究中的主要问题是什么?
  • 关键思路
    当前的算法公平性研究存在哪些局限性?如何推动更具包容性和代表性的算法公平性研究?
  • 其它亮点
    论文通过对AIES和FAccT两个会议的139篇论文进行元分析,发现当前算法公平性研究普遍存在美国中心主义和对人类身份的二元编码依赖。作者提出了一些建议,推动更具包容性和代表性的算法公平性研究,包括更加全面地考虑人类身份的复杂性和生活经历,并倡导采用更加细致、全球化的人类身份和价值观。
  • 相关研究
    最近相关的研究包括:1.《公平机器学习:现状和未来的挑战》;2.《算法公平性的挑战和机遇》;3.《算法公平性:从哲学到技术》等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论