【论文标题】Class Knowledge Overlay to Visual Feature Learning for Zero-Shot Image Classification 【作者团队】Cheng Xie, Ting Zeng, Hongxin Xiang, Keqin Li, Yun Yang, Qing Liu 【发表时间】2021.2.26 【论文原文】原文链接 【推荐理由】论文提出了一种新颖的GAN-CST方法,该方法利用类知识覆盖和半监督学习解决来解决零样本学习任务中语义特征和视觉特征之间的语义一致性问题。研究结果表明该方法在多个零样本学习任务上明显优于最新的方法。

在零样本图像分类中,不需要相应的训练样本,通过将语义特征转换成合成的视觉特征就可以发现新的类别。尽管在使用生成对抗网络生成高质量的合成视觉特征方面已经取得了显著的进展,但是保证语义特征和视觉特征之间的语义一致性仍然是非常具有挑战性的。本文提出了一种新的零样本学习方法GAN-CST,基于类知识的视觉特征学习来解决这个问题。该方法由三部分组成,类知识覆盖、半监督学习和三元组丢失。它应用类知识覆盖(CKO)不仅从相应的类中获取知识,还从具有知识覆盖的其他类中获取知识。它确保知识到视觉的学习过程有足够的信息来生成合成的视觉特征。该方法还应用半监督学习过程来重新训练知识到视觉的模型。它有助于增强合成视觉特征生成以及新类别预测。本文将大量基准数据集的结果制成表格,证明所提出的模型比最新的方法具有更好的性能。 图:GAN-CST方法框架

内容中包含的图片若涉及版权问题,请及时与我们联系删除