美国三位华裔年轻学者的合作,分别是西北大学的Annie Liang, UCLA的Jay Wu和普林斯顿的Xiaosheng Mu。
摘要
算法越来越多地用于指导高风险环境中的决策,例如谁应该获得保释、获得贷款批准或被雇用。在越来越多的经验证据的推动下,监管机构担心这些算法的错误率在不同人群中存在显着差异的可能性。算法面临的准确性和公平性之间的权衡是什么,它们如何依赖于算法输入的基本统计属性?为了回答这些问题,我们提出了一个模型,其中算法设计者将选择一种算法,将观察到的输入映射到决策中。我们描述了准确性-公平性帕累托边界(对应于如何权衡准确性和公平性的不同偏好),并确定了算法输入的简单统计属性,这些属性决定了该边界的形状。这些一般结果使我们能够在输入满足附加结构的特殊情况下得出特征,例如当输入之一是个人的群体身份时。最后,我们将我们的结果应用于解决最近的一个政策问题,即是否以及何时禁止通过预测算法使用某些类型的输入。
Arxiv地址:[2112.09975] Algorithmic Design: Fairness Versus Accuracy (arxiv.org)
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢