算法公正性已成为人工智能(AI)研究中的一个重要关注点。然而,开发公正的AI系统并不是一个客观的过程。公正性是一个固有的主观概念,受到参与研究和开发的人的价值观、经验和身份的影响。为了更好地理解当前公正研究中嵌入的规范和价值观,我们对两个主要的AI公正和伦理会议AIES和FAccT的算法公正论文进行了元分析,涵盖了2018年至2022年的139篇论文的最终样本。我们的调查揭示了两个令人担忧的趋势:首先,美国为中心的视角在整个公正性研究中占主导地位;其次,公正性研究普遍依赖于人类身份的二进制编码(例如,“黑人/白人”,“男性/女性”)。这些发现突显了当前研究经常忽视身份和生活经验的复杂性,最终未能在定义算法偏见和公正性时代表多样化的全球背景。我们讨论了这些研究设计选择的局限性,并提出了促进更具包容性和代表性的公正AI系统方法的建议,敦促实现一种拥抱人类身份和价值观的细致、全球性的范式转变。