FALE: Fairness-Aware ALE Plots for Auditing Bias in Subgroups

2024年04月29日
  • 简介
    公平性正逐渐成为机器学习系统中至关重要的要求。一个特别重要的概念是子群公平性,即在由多个属性定义的个体子群中的公平性。在子群中识别偏见可能会变得计算上具有挑战性,并且对于最终用户来说,理解和直观性的发现也可能存在问题。在本研究中,我们专注于后者方面;我们提出了一种解释性方法,旨在识别子群中潜在的偏见,并以用户友好的方式可视化发现。具体而言,我们扩展了ALE图解释性方法,提出了FALE(公平感知的累积局部效应)图,这是一种用于测量与特征(属性)不同值相对应的受影响人口的公平性变化的方法。我们设想FALE作为一种高效、用户友好、易于理解和可靠的第一阶段工具,用于识别潜在偏见问题的子群。
  • 图表
  • 解决问题
    解决问题:论文旨在提出一种可解释性方法,用于识别潜在的子群偏见,并以用户友好的方式可视化结果。
  • 关键思路
    关键思路:论文提出了一种名为FALE(公平感知累积局部效应)图的可解释性方法,用于测量与特征(属性)不同值相对应的受影响人群的公平变化。FALE是一种快速、用户友好、易于理解和可靠的识别具有潜在偏见问题的子群的工具。
  • 其它亮点
    其他亮点:论文使用ALE图解释性方法扩展了FALE图解释性方法,提出了一种用于识别潜在偏见子群的解释性方法。实验使用了Adult和COMPAS数据集,并与其他解释性方法进行了比较。论文提供了开源代码,并探讨了FALE的局限性和未来研究方向。
  • 相关研究
    相关研究:最近的相关研究包括“基于深度学习的公平性”、“公平机器学习中的可解释性”等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论