最近在arxiv看到了一篇有意思的文章,标题是torch.manual seed(3407) is all you need: On the influence of random seeds in deep learning architectures for computer vision。不得不吐槽一下,最近很多论文标题都是"XX is all you need",似乎只要标题足够吸引眼球就能提高被录用的几率。但显然,这一trick是有效地,因为这篇文章的作者成功把我吸引到了- -!
据作者介绍,在这篇文章里,他尝试探究不同的随机种子对CV领域模型效果的影响。在CIFAR 10数据集尝试了将近一万个随机种子,包括在大型数据集ImageNet数据集上的一些随机种子后,最后得出如下结论:尽管不同随机种子之间的效果标准差很小,但是仍然能够发现一些“异常点”,也就是使得模型表现相较于平均值特别好或者特别差的随机种子。
具体而言,作者是抱着如下三个问题去进行实验的:
-
随机种子的不同导致的模型效果分布是怎样的? -
是否存在黑天鹅事件,也就是存在效果明显不同的随机种子? -
在更大的数据集上进行预训练是否能减少由选择种子引起的差异性?
论文链接:https://arxiv.org/abs/2109.08203
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢