Assessing Group Fairness with Social Welfare Optimization

2024年05月19日
  • 简介
    统计平等指标被广泛研究和认可为实现公平的一种手段,但它们存在至少两个弱点。它们忽略决策的实际福利后果,因此可能无法实现对弱势群体所期望的公平。此外,它们经常彼此不兼容,并且没有令人信服的理由选择一个而不是另一个。本文探讨了一个更广泛的社会公正概念,基于优化社会福利函数(SWF),是否有助于评估各种平等定义。我们专注于著名的alpha公平SWF,该函数经过70年的公理和协商论证得到了证明。我们分析了最优解,并表明在某些条件下,它可以证明人口平等或平等赔率,但通常需要远离这些类型的平等。此外,我们发现预测率平等的实用性有限。这些结果表明,优化理论可以阐明如何在AI中实现群体公平这个被广泛讨论的问题。
  • 作者讲解
  • 图表
  • 解决问题
    论文探讨了如何在人工智能中实现群体公平性的问题,并提出了一种基于社会福利函数的解决方案。
  • 关键思路
    通过优化社会福利函数,可以在一定条件下实现人工智能中的群体公平性。
  • 其它亮点
    论文分析了alpha fairness社会福利函数的最优解,并发现在某些条件下可以实现人口统计学平衡或平等机会,但通常需要超越这些公平类型。研究还发现预测率平衡的效用有限。
  • 相关研究
    近期的相关研究包括“在机器学习中实现公平性:一种文献综述”和“机器学习中的公平性:从理论到算法”。
许愿开讲
PDF
原文
点赞 收藏
向作者提问
NEW
分享到Link

提问交流

提交问题,平台邀请作者,轻松获得权威解答~

向作者提问