
摘要
随着人工智能的发展,机器学习技术越来越多地应用于社会各个领域,用以辅助或代替人们进行决策,特别是在 一些具有重要影响的领域,例如,信用程度评级、学生质量评估、福利资源分配、疾病临床诊断、自然语言处理、个性信息 推荐、刑事犯罪判决等。如何在这些应用中确保决策公平或者无偏见?如何在这些应用中保护弱势群体的利益?这些问题直接影响到社会和公众对机器学习的信任,影响到人工智能技术的应用与系统的部署。通过系统梳理和全面剖析近年来的工作, 对机器学习公平性或公平机器学习的定义及度量进行了解释及对比;从机器学习的全生命周期出发,对不同环节中出现的各 类偏见及其发现技术进行了归类及阐释;从预处理、中间处理和后处理三个阶段,对公平机器学习的设计技术进行了介绍和 分析;从可信赖人工智能全局出发,对公平性与隐私保护、可解释性之间的关系、影响及协同解决方案进行了阐述;最后对 公平机器学习领域中亟待解决的主要问题、挑战及进一步研究热点进行了讨论。
论文链接:
https://cjc.ict.ac.cn/online/bfpub/gtl-2022225153240.pdf
内容中包含的图片若涉及版权问题,请及时与我们联系删除


评论
沙发等你来抢