发表于 计算机研究与发展 ›› 2021, Vol. 58 ›› Issue (2): 264-280.
作者陈晋音1,2,陈奕芃2,陈一鸣2,郑海斌2,纪守领3,时杰4,程瑶4 分别来自来自浙江工业大学(12)、浙江大学(3)和华为新加坡实验室(4)。
摘要:
深度学习是机器学习研究中的一个重要领域,它具有强大的特征提取能力,且在许多应用中表现出先进的性能,因此在工业界中被广泛应用.然而,由于训练数据标注和模型设计存在偏见,现有的研究表明深度学习在某些应用中可能会强化人类的偏见和歧视,导致决策过程中的不公平现象产生,从而对个人和社会产生潜在的负面影响.为提高深度学习的应用可靠性、推动其在公平领域的发展,针对已有的研究工作,从数据和模型2方面出发,综述了深度学习应用中的偏见来源、针对不同类型偏见的去偏方法、评估去偏效果的公平性评价指标、以及目前主流的去偏平台,最后总结现有公平性研究领域存在的开放问题以及未来的发展趋势.
PDF全文请点击下面的“阅读原文”。
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢