【论文标题】Counterfactual Generative Networks 【生成对抗网络】反事实生成网络(ICLR 2021) 【论坛网址】https://hub.baai.ac.cn/view/6256 【作者团队】Axel Sauer, Andreas Geiger 【机构】马普所,蒂宾根大学 【发表时间】2021/1/15 【代码链接】https://github.com/autonomousvision/counterfactualgenerativenetworks 【论文链接】https://arxiv.org/abs/2101.06046 【推荐理由】    本文收录于ICLR 2021,来自马普所&蒂宾根大学的研究人员提出将图像生成过程分解为独立的因果机制进行反事实图像生成用以提高分类器的可解释性和鲁棒性。   神经网络很容易捕获简单的关联建模,而忽略了更复杂的关联,这些复杂关联可能会使得模型具有更好的泛化性。先前关于图像分类的工作表明,深度分类器不是学习与对象形状的联系,而是倾向于利用具有低级纹理或背景的虚假关联来解决分类任务。在这项工作中,我们朝着更健壮和可解释的分类器迈出了一步,本文设计的分类器明确体现了任务的因果结构。本文提出一种反事实生成网络(结构如图所示),将图像生成过程分解为独立的因果机制,无需直接监督即可对其进行训练。通过利用适当的归纳偏置,这些因果机制可以解开物体的形状,物体的纹理和背景,再根据解耦出来的部件生成反事实图像。通过这些生成的高质量反事实图像用于训练,可以在牺牲部分性能的情况下提高分类器在训练数据分布外的鲁棒性。同时,反事实生成网络可以在单个GPU上进行有效训练,并利用常见的预训练模型作为归纳偏差。

内容中包含的图片若涉及版权问题,请及时与我们联系删除