论文标题CORE: A Retrieve-then-Edit Framework for Counterfactual Data Generation

论文链接https://aclanthology.org/2022.findings-emnlp.216/

 

 

01

方法介绍

 

1、通过对自然语料检索增强反事实数据生成过程中的多样性

2、借助GPT-3的in-context learning能力,对已有数据与检索到的数据进行编辑(结合)得到增强数据。

下面以文中做的情感分类任务为例进行介绍。

传统基于替换的反事实数据增强,以情感分类任务为例:这中间包括以下步骤:

①待替换词选择,如左上例中的opaque(难懂的)、plain(无聊的),都是导致情感极性为negative的causal term,翻转标签同时需要替换这些词。

②替换:如将opaque(难懂的)替换为delightful(令人愉快的)。

但是这种直接替换的策略会产生大量噪声,生成大量低质量样本。

Retrieve阶段的目标:

从大型未标记语料库中检索具有不同标签的相似实例(下图两红框)。

Edit阶段的目标:

将这些具有不同标签的相似实例中的关键词抽取出来,并借助GPT-3的in-context learning能力,将这些关键词编辑到原始样本中。

 

02

方法优劣

文章启发(优点)

1、启发:反事实数据增强要重点关注生成新样本的多样性与可控性。

本文的Retrieve部分体现的是对多样性的关注,Edit部分体现的是对可控性的关注。

2、与直接进行词替换的不同点:

①借助GPT-3 自动选择原样本中的待替换部分。相当于免去了基于替换的反事实数据增强中的找causal term的阶段。得益于GPT-3强大的上下文学习能力,这样可能可以做得更好。

②通过检索相似样本找到更符合原样本上下文语境的替换词。相当于免去了基于替换的反事实数据增强中的过滤阶段(过滤是为了删除那些质量低、噪音大的样本)。这样做可能会减少生成反事实样本中的噪声。

3、对GPT-3的in-context learning在反事实数据生成领域的用法进行了探索

文章缺陷(可改进部分)

Retrieve部分的检索模型、关键词抽取模型都需要额外的训练数据。这种方式会导致与其他模型效果的不公平对比。且如果检索出的具有不同标签的相似实例有误(比如说检索到的实例的标签与原样本标签相同),可能会有负面影响。

总结:本文探索了GPT-3的使用思路,但是需要的额外数据与模型太冗杂,可能也是仅中findings的原因。


关注AI Station,定期带来NLP、多模态领域最新解读!

 

内容中包含的图片若涉及版权问题,请及时与我们联系删除