在深度学习主流的面前,追寻简约、拒绝显学的理论家注定孤独。
人工智能领域正在掀起一场思维的战争,双方却并不势均力敌。
上周一,加州大学伯克利分校教授马毅、同校教授曹颖,和粤港澳大湾区数字经济研究院 (IDEA) 的创院理事长沈向洋博士,三人共同发表了一篇立场论文《关于形成智能的简约和自洽原则》(On the Principles of Parsimony and Self-Consistency for the Emergence of Intelligence)。
作者提出所有智能——无论人工还是自然智能——都应当遵循简约和自洽的原则,并进一步指出这两条原则结合之后形成了一种切实有效的计算框架,名为“压缩闭环转录”(compressive closed-loop transcription),并指出了当前流行的深度神经网络实现思路过度依赖算力,过于臃肿,可解释性差的弊端。
当学/业界的大部分人都把堆参数、堆算力作为实现智能的唯一路径时,马毅对此尖锐地反驳:“智能应该是最普及化 (democratized) 的技术,蚂蚁运动,能搜索,能识别物体,不会走丢,还是社会性动物,具有分工的能力。它的资源有多少?它需要有‘云’吗?”
这篇立场论文,其实是他希望在整个学术界对“智能”这个命题以正视听:地球上的70亿人以及数以成千上万亿计的其它生物都具备智能。考虑到这一背景,智能不应该,也不可能通过大量资源实现。
马毅接受品玩/硅星人采访表示,由于过去十年里深度学习突然爆发,让相当一部分这几年取得了成就的人形成了一种错觉,认为自己做的东西比前人发明的东西更好。比如他在教课的时候就发现,在高维数据优化算法上面,来自前十年的算法总是比后十年的算法更快,结果今天深度学习用的一些基础算法其实全都是在50、60年代提出来的。
“以前都是用计算尺算。每一次迭代都要人来算,耗费很多时间精力,所以算法必须保证是最高效率的。以前的计算机也是,计算能力就那么多,内存就这么多,计算机不动脑,人得动脑子,”他说道。
“现在反而大家都在炒作了,最后能提高一两个点就可以发篇文章——是因为方法好吗?不是,而是因为用更快的计算机在算。”
在深度学习爆炸式发展的过去十年里,人工智能方面的进步的确大多来自于使用同质化的、粗暴工程的方式训练出来的深度神经网络。问题在于它们太重度依赖统计学近似的方法,成了一个个巨大的黑箱,难以用数学解释;并且训练数据量需求太高,计算成本太高,训练也缺乏稳定性,训练出来的模型过大且缺乏适应性,容易受到攻击。
这不是智能应该有的样子,至少我们在大自然当中看到的生物智能,都不是这样的。马毅认为智能的核心是学习,而学习的核心是观察高维度的外部世界,从中识别出通用的低维度的结构,用紧凑的方式将它们准确地存储下来,并且在后续的使用中仍然能够忠实体现外部世界的情况。
这种学习能力不应该具有计算资源门槛。比如一只蚂蚁最多可能只有几十万个神经元,然而在自然中我们看到蚂蚁都能够表现出非常复杂和令人惊叹的智能行为,并且这些行为能力不是它在窝里花多久的时间训练出来的,而是一生下来就具备,以及不断的独立和社会生活过程中进一步学习和模仿获得。
如果像蚂蚁这样资源极其有限的生物智能在大自然当中都可以存在,构建人工智能还不得不用大量计算资源,就是一件很离谱的事了。
前几天,马毅在新开设没多久的 Twitter 账号上,发表了一个会让很多追赶深度学习时髦的人不舒服的观点:如果一个学者只读过去五六年里发表的文章的话,这辈子能够产生真正突破性想法的可能性几乎为零。与其这样做学问,还不如去赌城玩角子机赢钱的概率大。
这位UC伯克利驻校教授,也是这一观点的践行者。他是诞生于上世纪4、50年代的控制论、信息论、博弈论等忠实信徒,也是发展出这些理论的维纳、香农、冯·诺伊曼等人的拥趸。
他坚信当今以深度学习为主要方向的人工智能的发展,特别是发展过程中已经出现的一些问题(比如深度网络作为开环系统缺乏鲁棒性、存在“灾难性遗忘”等问题)早在六七十年前就已经得到了预示。
不仅如此,他认为智能系统的必要元素(包括紧凑编码、错误反馈、博弈论、非线性和平移不变性等),维纳早在在《控制论》一书中都已经提到并且讲对了。
“一个人得有多么自大,以为自己花半年想到的想法,在过去70年里那些比你更聪明,更会动脑筋,(计算)资源比你更少的人没有想到?现在被大家认为世界上最聪明的这样一群人,实际上反而变得最没有常识了,这是一个非常不幸的事情,”马毅表示。
更多内容,请阅读公众号原文文章。
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢