Individual Fairness Through Reweighting and Tuning

2024年05月02日
  • 简介
    社会内在的偏见可能会被人工智能系统放大和延续。为了解决这个问题,提出了各种解决方案来识别和减轻个人和群体的偏见并强制实现公平。最近,半监督学习文献中的一种正则化技术,图拉普拉斯正则化器(GLR),已被用作普遍的Lipschitz条件的替代品,以增强个人公平性(IF)。值得注意的是,先前的研究表明,通过GLR强制实现IF可以提高在协变量转移下AI模型的迁移学习准确性。然而,先前的研究在源数据和目标数据组合上定义了GLR,隐含地假设目标数据在训练时可用,这在实践中可能不成立。在这项工作中,我们调查了在训练和目标数据上独立定义GLR是否能够保持与先前的工作模型相似的准确性。此外,我们引入了标准化公平收益分数(FGN)来衡量算法公平性技术的IF。FGN量化了使用GLR与不使用GLR相比获得的公平性增益量。我们在德国信用批准数据集上评估了新的和原始的方法,使用FGN、预测一致性(PC)和传统分类指标进行评估。结果表明,两个模型在五倍交叉验证中实现了类似的统计平均性能。此外,所提出的指标表明,PC分数可能会产生误导,因为分数可能会很高,而且在统计上与增强公平性的模型相似,而FGN分数很小。因此,这项工作提供了关于GLR何时有效增强IF以及PC的缺陷的新见解。
  • 图表
  • 解决问题
    如何通过Graph Laplacian Regularizer (GLR)技术提高个体公平性,并解决在实践中目标数据不可用的问题?
  • 关键思路
    研究在训练数据和目标数据上分别定义GLR是否可以维持与之前方法相似的准确性,并介绍了新的归一化公平度增益(FGN)指标来衡量算法公平性技术的个体公平性。
  • 其它亮点
    实验使用了德国信贷数据集,并进行了五倍交叉验证。结果表明,两种模型在统计平均性能方面表现相似。新的FGN指标显示,PC分数可能会误导,因为即使PC分数高并且与提高公平性的模型相似,FGN分数也很小。
  • 相关研究
    之前的工作中,已经有人使用GLR来提高个体公平性,并且这种方法已经被证明可以提高AI模型的转移学习准确性。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论