- 简介对比学习通常是在许多不相关的负视图中匹配一对相关视图。视图可以通过生成(例如,通过增强)或观察来产生。我们研究了当存在多于两个相关视图时(我们称之为多视图任务)的匹配,并使用信息最大化和充分统计推导出新的表示学习目标。我们表明,在计算能力无限的情况下,应最大化相关视图的数量;而在固定的计算预算下,有利于减少独特样本的数量,同时增加这些样本的视图数量。特别地,在ImageNet1k上,训练了128个时期,批量大小为256的多视图对比模型优于使用批量大小为4096、训练了1024个时期的SimCLR,这挑战了对比模型需要大批量和多次训练时期的信念。
-
- 图表
- 解决问题本论文试图解决多视角学习中的多视角任务问题,即如何训练模型以处理多个相关视角的数据。
- 关键思路论文提出了基于信息最大化和充分统计的新的表示学习目标,用于训练多视角对比模型。并且论文发现,对于有限的计算资源,减少唯一样本数量并增加样本的视角数量可以提高模型性能。
- 其它亮点论文的实验结果表明,使用多视角对比模型在ImageNet1k数据集上的性能超过了SimCLR模型,挑战了对比模型需要大批量训练和训练周期的观点。此外,论文还提供了开源代码。
- 在多视角学习领域的相关研究包括:Multi-view Contrastive Learning for Visual Representation Learning、Learning Multiple Views with Consistency and Diversity以及Deep Multimodal Representation Learning from Temporal Data等。
NEW
提问交流
提交问题,平台邀请作者,轻松获得权威解答~
向作者提问

提问交流