- 简介当机器学习(ML)模型用于涉及人类的应用(例如在线推荐、学校招生、招聘、借贷)时,模型本身可能会触发目标数据分布的变化。执行预测(PP)是一个明确考虑到这种模型依赖分布转移的框架,用于学习ML模型。虽然在PP中为系统的鲁棒性寻找执行稳定(PS)解决方案的工作已经得到了重视,但它们的社会影响尚未得到充分探讨,PS解决方案是否符合公平性等社会规范也不清楚。在本文中,我们旨在检查执行预测中PS解决方案的公平性质。我们首先展示了PS解决方案可能会导致严重的极化效应和组别损失不平等。虽然文献中常用的现有公平机制可以帮助缓解不公平,但它们可能会失败并破坏模型依赖分布转移下的稳定性。因此,我们提出了新的公平干预机制,可以在PP设置中同时实现稳定性和公平性。提供了理论分析和实验证明所提出的方法。
- 图表
- 解决问题本论文旨在研究在人工智能模型被用于涉及人类的应用(如在线推荐、学校招生、招聘、贷款等)时,模型本身可能会触发目标数据分布的变化,进而探究如何在保持稳定性的同时实现公平性。
- 关键思路论文提出了一种新的公平干预机制,可以在模型依赖的分布变化下同时实现稳定性和公平性。
- 其它亮点论文发现,稳定性最优解可能会导致极端的极化效应和群体损失差异。然而,现有的公平机制可能会破坏模型的稳定性。因此,论文提出了新的公平干预机制,并提供了理论分析和实验验证。
- 近期的相关研究包括《A Survey on Bias and Fairness in Machine Learning》、《Fairness in Machine Learning: A Survey》等。
沙发等你来抢
去评论
评论
沙发等你来抢