- 简介机器学习系统在日常生活中的广泛应用,特别是在高风险领域,引起了人们对公平性问题的担忧。尽管先前的研究已经调查了静态公平性度量,但最近的研究表明,自动化决策具有长期影响,现成的公平性方法可能无法实现长期公平。此外,反馈循环的存在以及模型与环境之间的相互作用引入了额外的复杂性,可能偏离最初的公平目标。在本综述中,我们从不同的角度回顾了现有的长期公平性文献,并提出了长期公平研究的分类法。我们强调了主要挑战,并考虑未来的研究方向,分析了当前的问题和潜在的进一步探索。
- 图表
- 解决问题本文旨在解决机器学习系统中长期公平性问题,探讨自动化决策对长期公平性的影响,并提出新的长期公平性研究分类法。
- 关键思路本文提出了一种新的长期公平性研究分类法,考虑了模型和环境之间的交互和反馈循环对公平性目标的影响,并指出现有的公平性方法可能无法实现长期公平性。
- 其它亮点本文从不同角度回顾了关于长期公平性的现有文献,提出了新的分类法,并分析了当前面临的主要挑战和未来研究方向。实验使用了哪些数据集并未提及,也没有开源代码。
- 相关研究包括但不限于:《A survey on fairness in machine learning》、《The measurement and mismeasurement of fairness: a critical review of fair machine learning》、《Fairness and machine learning: limitations and opportunities》等。
沙发等你来抢
去评论
评论
沙发等你来抢