简介:BERT和其他大规模语言模型(LMs)包含性别和种族偏见。而且这还表现出社会偏见的其他方面。其领域大多数问题尚未得到深入研究,其中一些问题是因语种语言的不同而导致的。在本文中,作者通过分析和缓解英语、德语、西班牙语、朝鲜语、土耳其语和汉语单语BERT中的种族偏见,研究种族偏见及其在不同语言中的差异。为了观察和量化种族偏见,作者开发了一种称为“分类偏见分数”(Categorical Bias score)的新指标。然后更进一步地,作者提出了两种缓解方法:首先使用多语言模型,然后使用两种单语模型的上下文词对齐。本文将提出的方法与单语BERT方法进行了比较,结果表明本文提出的方法有效地缓解了种族偏见。这两种方法中哪一种效果更好:取决于该语言可用的NLP资源量。此外,作者还使用阿拉伯语和希腊语进行实验,以验证提出的方法适用于更广泛的语言。

论文下载: https://arxiv.org/abs/2109.05704

HUB地址: https://hub.baai.ac.cn/view/9970

内容中包含的图片若涉及版权问题,请及时与我们联系删除