【导读】本文结合总结梳理了知乎上“引用次数在15000次以上的都是什么论文?”这一问题的经典回答,希望能帮助到各位进一步了解领域内的相关进展。并且通过阅读这些经典论文或许也会给您带来不少启发。
作者:小牧牧
https://www.zhihu.com/question/433702668/answer/1617092684
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
01
机器学习领域
我来列举一些机器学习(Machine Learning)领域的高被引文章。
机器学习领域泰斗级学者Geoffrey Hinton的文章引用:
引用次数超过15000次文章有6篇。
- ImageNet Classification with Deep Convolutional Neural Networks,引用75231次(AlexNet,点燃了深度学习的热潮,因此2012年被认为是深度学习元年,当然要十分感谢ImageNet和GPU的加持);
- Learning internal representations by error-propagation & Learning representations by back-propagating errors,引用50716次(BP算法,殿堂级别的成果,几乎所有关于神经网络的文章都会用到BP算法);
- Deep learning,引用33222次(“三巨头”关于深度学习的综述文章);
- Dropout: a simple way to prevent neural networks from overfitting,引用24452次(Dropout是一种防止深度学习模型过拟合的正则化方法,目前已被Google申请专利,面对封锁,华为诺亚实验室开源了Disout算法,直接对标Google的Dropout);
- Visualizing data using t-SNE,引用16957次(t-SNE是一种流形学习方法,用于数据降维和可视化)。
在机器学习领域还有一个泰斗级的人物Jürgen Schmidhuber,他的一篇文章Long short-term memory目前的引用量是40934次,是深度学习-循环神经网络(Recurrent Neural Network, RNN)中的重要成果。但是LeCun Y,Bengio Y和Hinton G在2015年发表在Nature上的文章Deep learning作者中没有Jürgen Schmidhuber,不过Schmidhuber在2015也发表了一篇关于深度学习的综述文章Deep learning in neural networks: An overview,目前的引用量是10917。后来,“三巨头“获得了2018年的“图灵奖”,Schmidhuber和“三巨头“在网络上因为“成果引用”和“成果认定”发生了大量的口水战,这些都是后话了。
机器学习领域还有一些重要的成果,对应的文章也有不俗的引用量。比如:
- 一直被对比,从未被超越的Adam,目前的引用量是60604次;
- 使神经网络训练更快、更稳定的Batch normalization,目前的引用量是22986次;
- 避免深层网络训练时梯度消失或梯度爆炸的激活函数—线性整流函数ReLU(Rectified linear units improve restricted boltzmann machines),目前的引用量是11548次。
- Zisserman在2014年发表的关于VGGNet的文章Very deep convolutional networks for large-scale image recognition,目前的引用量是48691次。Google在2015年发表的关于GoogLeNet的文章Going deeper with convolutions,目前的引用量是26353次。何凯明2016年的文章Deep residual learning for image recognition,提出的多达152层ResNet,目前的引用量是63253次。2016年提出的用于目标检测的Faster R-CNN,目前的引用量是24215次。
女神李飞飞构建的ImageNet是计算机视觉(Computer vision)领域非常著名的大型数据集,关于ImageNet的论文ImageNet: A large-scale hierarchical image database发表时间是2009年,目前的引用量是23395次,AlexNet就是在2012年ImageNet大规模视觉识别挑战赛(ILSVRC)上一举成名,自此点燃了深度学习的热潮,可见大规模数据对于深度学习的重要性。
经常被调侃“Money(GPU) Is All You Need”的文章Attention Is All You Need目前的引用量是15410次,这篇文章提出的Transformer是自然语言处理(NLP)领域的重要成果,它的出现迅速取代了LSTM在NLP领域的霸主地位,像BERT、GPT这样的SOTA模型均采用Transformer。NLP领域的另一个重量级成果是word2vec,作者是来自Google的Tomas Mikolov,关于word2vec的两篇文章Distributed representations of words and phrases and their compositionality和Efficient estimation of word representations in vector space目前的引用量分别是24323次和19220次(感谢@ccking的提醒),其实我一直觉得NLP比图像处理问题复杂的多,最让人头疼的莫过于如何将语言数字化,我对此的了解仅限于One-hot encoding,实在是太难了。
谷歌大神Ian Goodfellow的关于GAN的文章Generative adversarial nets目前的引用量是25592次,关于GAN究竟是谁提出来的我就不得而知了,但是Schmidhuber在这个问题上肯定有很多话要说,至于Schmidhuber究竟说了些啥,参见:郑华滨:从PM到GAN——LSTM之父Schmidhuber横跨22年的怨念(文字版)。
Hinton老爷子在2006年提出的深度置信网络(DBN)被普遍认为是深度学习的前夕,关于DBN的两篇文章A fast learning algorithm for deep belief nets和Reducing the dimensionality of data with neural networks的引用量分别是14370次和13659次,DBN是Hinton老爷子最引以为傲的成果,它是一种由多个限制玻尔兹曼机(RBM)堆栈而成的概率生成模型,是最初训练深度网络的一种方法,尽管目前深度学习模型不再需要这种预训练,但它的思想仍然影响着当前的研究工作。
02
计算机视觉领域
这里重点盘点一下AI领域,特别是CV方向的论文。
值得说一下,自从2012年,特别是2014年后,AI领域再度火爆,延续至今,很多优秀论文(特别是基于深度学习)也是发表在这个期间,引用量也迅速爆炸。
- 注:下面会边介绍作者,边介绍论文,侧重点有点不同。
计算机视觉领域引用量1.5万+的论文
Andrew Zisserman(传闻欧洲计算机视觉第一人)
第一篇引用量近5万的是:深度学习时代的经典backbone模型VGG:Very deep convolutional networks for large-scale image recognition
第二篇引用量近3万,这其实是一本书《Multiple view geometry in computer vision》,可称为深度学习时代前的CV必读之作(现在其实也强推,但不少新入坑CV的人,直接跳过这些基础知识,去玩CNN了)
Jitendra Malik
加州大学伯克利分校的电子工程与计算机科学系(EECS)教授 Jitendra Malik获颁 2019 年 IEEE 计算机先驱奖。
第一篇引用量近4万,算是12年之前人工智能最经典的书籍,内容覆盖范围相当之广。不过Jitendra Malik并非一二作,所以搜索该书的时候,不容易看到他的名字。
第二篇引用量近1.7万,基于传统方法的图像分割代表作!
下面说说深度学习三巨头(Hinton、Bengio和LeCun)
Geoffrey Hinton
Hinton老爷子的代表作太多了,1.5万+引用量的论文见下图(6篇)。比如
第一篇引用量7.5万+,发表于2012年的AlexNet!永远滴神!
第二篇引用量3.3万+,是为了纪念人工智能60周年,深度学习三巨头合作在Nature上发表深度学习的综述性文章:Deep Learning
还有4篇破1.5万引用量的论文,这里不赘述,膜拜即可!
Yoshua Bengio
Bengio教授的代表作也太多了,1.5万+引用量的论文见下图(5篇)。比如:
第一篇上面说过了,是深度学习三巨头合著的。
第二篇引用量3万+,这是和LeCun提出了当时风靡一时的字符识别器(当时就是典型落地应用)
第三篇引用量2.5万+,这是和Goodfellow提出了鼎鼎大名的GAN!
第四篇引用量2万+,这是和Goodfellow发布了深度学习时代的"圣经"书籍:Deep Learning,国内不少人又称为花书。
Yann LeCun
LeCun大佬的两篇破1.5万的工作,上面已经介绍了。
Luc Van Gool
Luc Van Gool 苏黎世联邦理工学院教授,据了解,有若干中国学生曾师从于他。
这篇近3万引用量就是非常著名的SURF算法
上面提到SURF算法,就不得不提SIFT算法。
David Lowe
SIFT算法引用量近6万!其是手工特征时代的最具代表性工作!SURF、ORB在它面前都是弟弟,截止目前SIFT仍被广泛应用,相当能打!
Trevor Darrell
第一篇引用量近2万,鼎鼎大名的基于FCN的语义分割网络!
第二篇引用量1.5万+,鼎鼎大名的R-CNN目标检测网络。
李飞飞(Li Fei-Fei)
李飞飞女神,创建了ImageNet数据集和相关赛事~ 影响力巨大
上述主要是AI、CV领域的大前辈(年龄基本40+),这里重点介绍几位"新秀":
何恺明(Kaiming He)
做CV的应该都听过何恺明,有鼎鼎大名的ResNet、Faster R-CNN、Mask R-CNN、Focal Loss、FPN和近期的MoCo等工作。
第一篇是目前CV主流使用的backbone:ResNet,永远滴神!
第二篇是目标检测领域代表性网络:Faster R-CNN
估计17年发表的Mask R-CNN 也快破1.5万引用量了
Ross Girshick
他与何恺明算是合作搭档,都在FAIR工作,有不少合作的工作。
有鼎鼎大名的R-CNN系列工作,合作的有Caffe、Mask R-CNN、Focal Loss、FPN和YOLO等工作。
Ian Goodfellow
GAN 之父!下面三个工作都是目前顶级活跃的,比如GAN、Deep Learning书籍和TensorFlow框架
任少卿(Shaoqing Ren)
Faster R-CNN一作!貌似现在不做研究了,主要在企业(目前在蔚来)担任技术主管/副总裁。
其实CV领域还有很多超1.5万的论文,限于篇幅这里就不一一盘点:
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢