标题:脸书|Exploring Simple Siamese Representation Learning(探索简单的连体表示学习)

简介:连体网络已经成为一种常见的结构用于无监督视觉表示学习的各种最新模型。 这些模型最大化一张图像的两个增强之间的相似性,受制于某些避免崩溃解决方案的条件。 在本文中,

我们报告了令人惊讶的实证结果,简单的连体网络可以学习有意义的表示,即使不使用以下:(1) 负样本对,(2) 大批次,(3)动量编码器。 我们的实验表明对于损失和结构确实存在崩溃的解决方案,但是停止梯度操作在防止崩溃方面起着至关重要的作用。 我们提供了一个关于停止梯度的含义的假设,并进一步展示了概念验证实验验证它。 我们的“SimSiam”方法实现了ImageNet 和下游任务的竞争结果。 我们希望这个简单的基线能够激励人们重新思考连体架构在无监督表示学习中的作用。

论文下载:https://arxiv.org/pdf/2011.10566.pdf

内容中包含的图片若涉及版权问题,请及时与我们联系删除