因果学习作为人工智能领域研究热点之一,其研究进展与成果也引发了众多关注。本篇主要介绍了三篇AAAI 2022的三篇文章。主要包含了利用因果推断技术来获得提高文本分类的鲁棒性、消除词嵌入中的社会偏见以及自然语言理解模型的假设消偏。

  • C2L:基于因果对比学习的健壮文本分类(C2L: Causally Contrastive Learning for Robust Text Classification)

论文地址:https://www.aaai.org/AAAI22Papers/AAAI-11767.ChoiS.pdf

NLP 任务中的深度模型容易依赖于伪模式,这将会限制模型鲁棒性。本文的目标是利用对比学习和反事实增强来提高鲁棒性。通过综合“一组”反事实,并对该组的预测分布做出集体决策,可以强有力地监督每个实体的因果关系。模型最终提高了反事实鲁棒性,跨域泛化 , 以及稀缺数据泛化能力。

  • 基于因果推理的词嵌入:性别偏见减少与语义信息保存(Word Embeddings via Causal Inference: Gender Bias Reducing and Semantic Information Preserving)

论文地址:https://arxiv.org/pdf/2112.05194.pdf

现有的NLP 模型中存在严重的社会偏见问题。研究表明,在人工生成的语料库上训练的词嵌入具有很强的性别偏见。先前的去偏方法主要关注于建模偏差,隐含地考虑语义信息,而完全忽略了偏差和语义成分之间复杂的潜在因果结构。论文利用因果推理框架来有效消除词嵌入的性别偏见,同时保留内在的语义信息。

  • 通过因果干预和反事实推理去偏NLU模型(Debiasing NLU models via Causal Intervention and Counterfactual Reasoning)

论文地址:https://www.aaai.org/AAAI22Papers/AAAI-8503.TianB.pdf

强自然语言理解(NLU)模型倾向于依赖数据集的注释偏差作为捷径,这与任务的潜在机制背道而驰。这篇文章提供了一个新的视角,用因果推理来找出偏见。一方面,利用后门调整和因果干预来发现真正的因果效应,另一方面,在推理过程中,将偏见视为直接因果效应,并通过反事实推理求间接因果效应来消除偏见。

内容中包含的图片若涉及版权问题,请及时与我们联系删除