CVPR是IEEE Conference on Computer Vision and Pattern Recognition的缩写,即IEEE国际计算机视觉与模式识别会议。该会议是由IEEE举办的计算机视觉和模式识别领域的顶级会议。近年来每年有约1500名参加者,收录的论文数量一般300篇左右。

近三年CVPR引用量最高论文(截止目前2022年11月)

  • CVPR2020引用量最高的论文:MoCo
  • CVPR2021引用量最高的论文:SimSiam
  • CVPR2022引用量最高的论文:MAE

它们的共同点是:

  • 三篇论文唯一单位:Facebook(FAIR)
  • 三篇论文唯一共同作者:何恺明(KaimingHe)
  • 三篇论文均属于:自监督学习(Self-Supervised Learning)
  • MoCo CVPR2020

MoCo CVPR2020
  • 论文地址https://arxiv.org/pdf/1911.05722.pdf
  • 开源地址:https://github.com/facebookresearch/moco
  • 李沐精读:https://www.bilibili.com/video/BV1C3411s7t9/?spm_id_from=333.999.0.0&vd_source=ec54183c11e50329f6359027c7459966
  • 知乎解读:https://zhuanlan.zhihu.com/p/382763210
  • 知乎解读:https://zhuanlan.zhihu.com/p/365886585

MoCo为CV拉开了Self-Supervised的新篇章,与Transformer联手成为了深度学习炙手可热的研究方向。

MoCo主要设计了三个核心操作:Dictionary as a queueMomentum updateShuffling BN

Dictionary as a queue

MoCo提出了将memory bank的方法改进为dictionary as a queue,意思就是跟memory bank类似,也保存数据集中数据特征,只不过变成了queue的形式存储,这样每个epoch会enqueue进来一个batch的数据特征,然后dequeue出去dictionary中保存时间最久的一个batch的数据特征,整体上来看每个epoch,dictionary中保存的数据特征总数是不变的,并且随着epoch的进行会更新dictionary的数据特征。同时dictionary的容量不需要很大。

图2:三种对比损失机制比较

Momentum update 动量更新

MoCo在dictionary as a queue的基础上,增加了一个momentum encoder的操作,key的encoder参数等于query的encoder参数的滑动平均,公式如下:

和 分别是key的encoder和query的encoder的参数,m是0-1之间的动量系数。因为momentum encoder的存在,导致key支路的参数避免了突变,可以将多个epoch的数据特征近似成一个静止的大batch数据特征。

MoCo伪代码如下

f_k.params = f_q.params # 初始化  
for x in loader: # 输入一个图像序列x,包含N张图,没有标签  
    x_q = aug(x) # 用于查询的图(数据增强得到)  
    x_k = aug(x) # 模板图(数据增强得到),自监督就体现在这里,只有图x和x的数据增强才被归为一类  
    q = f_q.forward(x_q) # 提取查询特征,输出NxC  
    k = f_k.forward(x_k) # 提取模板特征,输出NxC  
    # 不使用梯度更新f_k的参数,这是因为文章假设用于提取模板的表示应该是稳定的,不应立即更新  
    k = k.detach()   
    # 这里bmm是分批矩阵乘法  
    l_pos = bmm(q.view(N,1,C), k.view(N,C,1)) # 输出Nx1,也就是自己与自己的增强图的特征的匹配度  
    l_neg = mm(q.view(N,C), queue.view(C,K)) # 输出Nxk,自己与上一批次所有图的匹配度(全不匹配)  
    logits = cat([l_pos, l_neg], dim=1) # 输出Nx(1+k)  
    labels = zeros(N)  
    # NCE损失函数,就是为了保证自己与自己衍生的匹配度输出越大越好,否则越小越好  
    loss = CrossEntropyLoss(logits/t, labels)   
    loss.backward()  
    update(f_q.params) # f_q使用梯度立即更新  
    # 由于假设模板特征的表示方法是稳定的,因此它更新得更慢,这里使用动量法更新,相当于做了个滤波。  
    f_k.params = m*f_k.params+(1-m)*f_q.params   
    enqueue(queue, k) # 为了生成反例,所以引入了队列  
    dequeue(queue)  

SimSiam CVPR2021


SimSiam CVPR2021

Siamese Network是近年来自监督/无监督任务中非常常用的网络,他是应用于两个或更多输入的一个权值共享的网络,是比较两个实体天然的工具。目前的大部分方法都是用一个图像的两种augmentation作为输入,在不同的条件下来最大化他们的相似度。但是Siamese Network会遇到的一个问题是,他的解可能会collapse至一个常量。目前常用的解决这个问题的方法有:Contrastive Learning,引入负样本,负样本会把constant 输出排除到解空间以外;Clustering;momentum encoder。在本文中作者就指出,一个简单的Siamese 网络不需要以上方法也可以有效避免collapsing问题,并且不依赖于large-batch训练。作者将他们的方法称为“SimSiam”,并指出其中的stop-gradient操作才是在避免collapsing中非常重要的。这可能是由于有一个潜在的优化问题被解决了。作者推测实际上这里有两组变量,SimSiam实际上是在交替优化每一组变量。SimSiam 伪代码如下:

# Algorithm1 SimSiam Pseudocode, Pytorch-like  

# f: backbone + projection mlp  

# h: prediction mlp  

for x in loader: # load a minibatch x with n samples  
 x1, x2 = aug(x), aug(x) # random augmentation  
 z1, z2 = f(x1), f(x2) # projections, n-by-d  
 p1, p2 = h(z1), h(z2) # predictions, n-by-d  
 L = D(p1, z2)/2 + D(p2, z1)/2 # loss  
 L.backward() # back-propagate  
 update(f, h) # SGD update  
      
def D(p, z): # negative cosine similarity  
 z = z.detach() # stop gradient  
 p = normalize(p, dim=1) # l2-normalize  
 z = normalize(z, dim=1) # l2-normalize  
return -(p*z).sum(dim=1).mean()  

MAE CVPR2022

MAE CVPR2022
  • 论文地址https://arxiv.org/pdf/2111.06377.pdf
  • 开源地址:https://github.com/facebookresearch/mae
  • 李沐精读:https://www.bilibili.com/video/BV1sq4y1q77t/?spm_id_from=333.788&vd_source=ec54183c11e50329f6359027c7459966
  • 知乎解读:https://zhuanlan.zhihu.com/p/432950958
  • 知乎解读:https://zhuanlan.zhihu.com/p/448407149

     更多内容请访问 https://mp.weixin.qq.com/s/0JAPnh6g0CA3oVlkM4pQwA

 

内容中包含的图片若涉及版权问题,请及时与我们联系删除