Addressing Polarization and Unfairness in Performative Prediction

2024年06月24日
  • 简介
    当机器学习(ML)模型用于涉及人类的应用(例如在线推荐、学校招生、招聘、借贷)时,模型本身可能会触发目标数据分布的变化。执行预测(PP)是一个明确考虑到这种模型依赖分布转移的框架,用于学习ML模型。虽然在PP中为系统的鲁棒性寻找执行稳定(PS)解决方案的工作已经得到了重视,但它们的社会影响尚未得到充分探讨,PS解决方案是否符合公平性等社会规范也不清楚。在本文中,我们旨在检查执行预测中PS解决方案的公平性质。我们首先展示了PS解决方案可能会导致严重的极化效应和组别损失不平等。虽然文献中常用的现有公平机制可以帮助缓解不公平,但它们可能会失败并破坏模型依赖分布转移下的稳定性。因此,我们提出了新的公平干预机制,可以在PP设置中同时实现稳定性和公平性。提供了理论分析和实验证明所提出的方法。
  • 图表
  • 解决问题
    本论文旨在研究在人工智能模型被用于涉及人类的应用(如在线推荐、学校招生、招聘、贷款等)时,模型本身可能会触发目标数据分布的变化,进而探究如何在保持稳定性的同时实现公平性。
  • 关键思路
    论文提出了一种新的公平干预机制,可以在模型依赖的分布变化下同时实现稳定性和公平性。
  • 其它亮点
    论文发现,稳定性最优解可能会导致极端的极化效应和群体损失差异。然而,现有的公平机制可能会破坏模型的稳定性。因此,论文提出了新的公平干预机制,并提供了理论分析和实验验证。
  • 相关研究
    近期的相关研究包括《A Survey on Bias and Fairness in Machine Learning》、《Fairness in Machine Learning: A Survey》等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论