Fair Mixed Effects Support Vector Machine

2024年05月10日
  • 简介
    为确保机器学习应用程序中的公正和道德自动预测,公平性必须成为核心原则。机器学习中的公平性旨在减轻训练数据中存在的偏见和可能导致歧视性结果的模型缺陷。这是通过防止模型基于种族或性取向等敏感特征做出决策来实现的。机器学习的一个基本假设是观察值的独立性。然而,对于描述社会现象的数据,这个假设通常不成立,因为数据点通常是基于聚类的。因此,如果机器学习模型不考虑集群相关性,结果可能会存在偏差。特别是在集群分配与感兴趣的变量相关的情况下,偏差会更高。我们提出了一种公平混合效应支持向量机算法,可以同时处理这两个问题。通过可重复的模拟研究,我们展示了聚类数据对公平机器学习预测质量的影响。
  • 解决问题
    论文旨在解决机器学习中存在的偏见和歧视问题,特别是针对数据中存在的聚类相关性导致的偏见问题。
  • 关键思路
    论文提出了一种公平的混合效应支持向量机算法,可以同时处理聚类和敏感特征问题。
  • 其它亮点
    论文通过可复现的模拟研究展示了聚类数据对公平机器学习预测质量的影响,使用了混合效应支持向量机算法来减少偏见,是该领域的新思路,值得深入研究。
  • 相关研究
    最近相关的研究包括:《A Survey on Bias and Fairness in Machine Learning》、《Fairness in Machine Learning: A Survey》等。
PDF
原文
点赞 收藏 评论 分享到Link

沙发等你来抢

去评论