- 简介本文考虑到在数据驱动的决策过程中,公平性和歧视问题的日益引起的关注,机器学习需要具有可推广的偏差缓解技术。虽然许多现有的机器学习偏差缓解方法在特定情况下取得了成功,但它们往往缺乏通用性,不能轻松地应用于不同的数据类型或模型。此外,准确性和公平性之间的权衡仍然是该领域的一个基本紧张点。为了解决这些问题,我们提出了一种基于多任务学习的偏差缓解方法,利用了多目标优化中的蒙特卡罗失活和帕累托最优性的概念。该方法在不使用敏感信息的情况下优化准确性和公平性,同时提高模型的可解释性。我们在来自不同领域的三个数据集上测试了这种方法,并展示了它如何提供最理想的模型公平性和性能之间的权衡。这允许在特定领域进行调整,其中一个指标可能比另一个更重要。通过本文介绍的框架,我们旨在增强公平性-性能权衡,并为机器学习中的偏差缓解方法的通用性问题提供解决方案。
- 图表
- 解决问题解决机器学习中偏见问题的通用性方法的需求,同时平衡准确性和公平性的矛盾。
- 关键思路提出基于多任务学习、蒙特卡罗dropout和 Pareto 最优性的偏见缓解方法,通过优化准确性和公平性,提高模型的可解释性。
- 其它亮点实验使用了三个来自不同领域的数据集,展示了该方法在模型公平性和性能之间的权衡,并允许在特定领域中进行调整。该论文的亮点在于提出了一种通用性方法,同时解决了准确性和公平性之间的矛盾,并提高了模型的可解释性。
- 最近的相关研究包括:《A survey on bias and fairness in machine learning》、《Fairness and machine learning》等。
沙发等你来抢
去评论
评论
沙发等你来抢