【论文标题】Self-Supervised Pretraining Improves Self-Supervised Pretraining 【作者团队】Colorado J. Reed, Xiangyu Yue et al. 【发表时间】2021/03/25 【机 构】UC Berkeley ,UCSF ,Georgia Tech 【论文链接】https://arxiv.org/pdf/2103.12718.pdf 【代码】https://github.com/cjrd/self-supervised-pretraining. 【推荐理由】针对自监督预训练对计算资源,训练数据要求较高的问题,本文提出了一种分层预训练策略HPT。基于该策略的自监督预训练在16个cv数据集上将收敛速度加速80倍,同时提升了模型表现,证明了其对图像增强和预训练数据变化具备较好的鲁棒性。

内容中包含的图片若涉及版权问题,请及时与我们联系删除