
论文标题:
MABEL: Attenuating Gender Bias using Textual Entailment Data
收录会议:
EMNLP 2022
论文链接:
https://arxiv.org/abs/2210.14975
代码链接:
https://github.com/princeton-nlp/mabel
摘要:
预训练过程中编码引进的社会偏差,会进一步在下游任务中放大。本文提出使用真专用标签的性别偏差减轻方法 MABEL,其关键技术:基于反事实增强的对比学习目标:具体为构造 NLI 数据集中的性别平衡蕴含对,通过蕴含对的监督对比学习方式,能够学习更均匀的表征空间(即最好是各向同性),这就使得句子之间的相似性度量更好地去对应语义的相似性(言外之意,不受性别偏差的影响)。对齐正则化:作用是使不同性别方向的蕴含对拉近他们的一致性,来更好地学习更加公平的语义空间。实验通过内在和外部指标来评测模型表现,验证了 MAEBL 作为模型无关的方法,能够在下游任务的微调之后仍然保持很好的表现;使用 NLI 数据的蕴含对非常适合减轻偏差。
智源社区特邀陈丹琦组研究员
内容中包含的图片若涉及版权问题,请及时与我们联系删除


评论
沙发等你来抢