- 简介统计平等指标被广泛研究和认可为实现公平的一种手段,但它们存在至少两个弱点。它们忽略决策的实际福利后果,因此可能无法实现对弱势群体所期望的公平。此外,它们经常彼此不兼容,并且没有令人信服的理由选择一个而不是另一个。本文探讨了一个更广泛的社会公正概念,基于优化社会福利函数(SWF),是否有助于评估各种平等定义。我们专注于著名的alpha公平SWF,该函数经过70年的公理和协商论证得到了证明。我们分析了最优解,并表明在某些条件下,它可以证明人口平等或平等赔率,但通常需要远离这些类型的平等。此外,我们发现预测率平等的实用性有限。这些结果表明,优化理论可以阐明如何在AI中实现群体公平这个被广泛讨论的问题。
-
- 图表
- 解决问题论文探讨了如何在人工智能中实现群体公平性的问题,并提出了一种基于社会福利函数的解决方案。
- 关键思路通过优化社会福利函数,可以在一定条件下实现人工智能中的群体公平性。
- 其它亮点论文分析了alpha fairness社会福利函数的最优解,并发现在某些条件下可以实现人口统计学平衡或平等机会,但通常需要超越这些公平类型。研究还发现预测率平衡的效用有限。
- 近期的相关研究包括“在机器学习中实现公平性:一种文献综述”和“机器学习中的公平性:从理论到算法”。
NEW
提问交流
提交问题,平台邀请作者,轻松获得权威解答~
向作者提问

提问交流