【论文标题】Self-Supervised Pretraining Improves Self-Supervised Pretraining
【作者团队】Colorado J. Reed, Xiangyu Yue et al.
【发表时间】2021/03/25
【机 构】UC Berkeley ,UCSF ,Georgia Tech
【论文链接】https://arxiv.org/pdf/2103.12718.pdf
【代码】https://github.com/cjrd/self-supervised-pretraining.
【推荐理由】针对自监督预训练对计算资源,训练数据要求较高的问题,本文提出了一种分层预训练策略HPT。基于该策略的自监督预训练在16个cv数据集上将收敛速度加速80倍,同时提升了模型表现,证明了其对图像增强和预训练数据变化具备较好的鲁棒性。
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢