The Legal Duty to Search for Less Discriminatory Algorithms

2024年06月10日
  • 简介
    计算机科学的研究表明,与常规智慧相反,对于一个给定的预测问题,几乎总会有多个具有相同预测性能的模型,这种现象通常被称为模型多样性。关键是,具有相同预测性能的不同模型可以为同一人产生不同的预测结果,并且在总体上,不同模型在人口统计群体中产生不同的影响水平。因此,当算法系统显示出不平等的影响时,模型多样性表明,开发人员可以发现一个表现同样良好但具有较少歧视性影响的替代模型。事实上,模型多样性的承诺是,几乎总是存在一个同样准确但较少歧视性的算法(LDA)。但是,如果没有专门的探索,开发人员不太可能发现潜在的LDA。模型多样性和LDA的可用性对于针对歧视性算法的法律反应具有重要影响,特别是对于不平等影响原则,该原则长期以来一直考虑了在评估责任时具有较少不平等影响的替代方案的可用性。对几十年来法律权威的仔细阅读表明,法律在许多场合已经承认,较少歧视性替代方案的存在有时与被告在不平等影响分析的第二步中的辩护责任相关。事实上,在不平等影响原则下,如果可以通过合理的努力发现一个同样准确但具有较少不平等影响的模型,则说一个雇主、债权人或住房提供者使用的特定算法系统是“必需的”是没有意义的。因此,我们认为,法律应该对在涵盖民权领域的预测模型进行开发和部署的实体负有合理搜索LDA的责任。
  • 图表
  • 解决问题
    解决算法系统不公平性的问题,探讨如何寻找同等准确度但更少歧视的算法模型。
  • 关键思路
    通过研究模型多样性现象,提出寻找同等准确度但更少歧视的算法模型的方法,并认为开发和部署预测模型的实体应该承担合理搜索LDAs的责任。
  • 其它亮点
    论文通过研究模型多样性现象,提出了寻找同等准确度但更少歧视的算法模型的方法,这对于解决算法系统不公平性的问题具有重要意义。实验使用了多个数据集,包括Adult, COMPAS, HMDA等,研究结果表明,通过寻找LDAs可以降低算法系统的不公平性。论文还指出,开发和部署预测模型的实体应该承担合理搜索LDAs的责任。
  • 相关研究
    最近的相关研究包括:《Equality of Opportunity in Supervised Learning》、《Learning from Explanations using Sentiment and Advice in RL》、《Fairness in Criminal Justice Risk Assessments: The State of the Art》等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论