【论文标题】Exploring Simple Siamese Representation Learning
【表征学习】探索简单的孪生网络表征学习
【论坛网址】https://hub.baai.ac.cn/view/4330
【作者团队】Xinlei Chen, Kaiming He
【相关网址】https://mp.weixin.qq.com/s/fT6l0ziaEW0quApJTLequg
【发表时间】2020/11/20
【论文链接】https://arxiv.org/abs/2011.10566
【推荐理由】
来自FAIR何恺明大神团队的研究人员提出一种简单孪生网络可以在无负样本对,大批训练和动量编码器的情形下学习有意义的特征表达。
近年来,孪生网络已经成为在各种自监督/无监督视觉表征学习中的一种通用结构。孪生网络是具有两个或者多个输入的权值共享网络,因此它能很方便的用于对比实体。最近的工作都是用一张图像的两种数据增强作为输入,并在不同条件下最大化它们之间的相似性。
但是孪生网络会出现所有输出崩溃成一个常量的情况,我们称之为“崩溃解”问题。为了阻止孪生网络输出结果崩溃,研究人员提出了各种相关策略,例如在SimCLR中通过排斥不同的图像(负样本对)同时吸引同一张图片的不同视图,从而使用负样本对排除了解空间的常量输出;例如在SwAV中在孪生网络中加入在线聚类模块;例如在BYOL中只依赖于正样本对但使用了动量编码器解决了“崩溃解”问题。
本文提出一种简单孪生网络可以在无负样本对,大批训练和动量编码器的情形下解决“崩溃解”问题。作者的方法仅仅通过最大化一张图片两个视角的相似度,通过正常批大小的训练,就能成功的预防“崩溃解”,具体模型如图所示。
如图可见,简单孪生网络的关键是“stop-gradient”操作。作者实践性的表明对于Loss函数和结构而言,“崩溃解”确实是存在的,但是“stop-gradient”操作对于避免“崩溃解”有非常重要的作用,作者假设存在两组隐变量集合,简单孪生网络通过“stop-gradient“的操作交替优化两组隐变量集合,算法流程如图。作者期望这个简单的方法可以驱动更多研究人员重新思考无监督表征学习的孪生结构的作用。
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢