近日,LeCun就AI的热点争论问题发推,重申自己的观点:
不要担心终结者,人工智能从来不需要进化,所以它没有发展出支配他人的生存本能(Don’t Fear the Terminator Artificial intelligence never needed to evolve, so it didn’t develop the survival instinct that leads to the impulse to dominate others)
当我们徘徊在另一场技术革命——人工智能革命的边缘时,人们越来越担心这可能是我们的最后一场革命。令人担忧的是机器智能将很快赶上甚至超过人类。他们可能会转而反对我们,取代我们成为地球上占主导地位的“生命”形式。我们的创造物将成为我们的主宰——或者将我们彻底消灭。这些戏剧性的场景,尽管想象起来令人兴奋,却反映了对人工智能的误解。而且,它们分散了人们对这项技术在不久的将来可能带来的风险的注意力,也分散了人们对这项技术最令人兴奋的好处的注意力。
人工智能的统治早已成为科幻小说的素材。在2001年的A Space Odyssey中,哈尔是一台控制星际飞船运行的有感知能力的计算机,为了自保,它放弃了船员。在终结者系列电影中,一个名为天网的计算机防御系统实现了自我意识,并启动了核战争,毁灭了大部分人类。到目前为止,这一比喻几乎已经被提升为科幻小说中的自然法则:一个足够智能的计算机系统将竭尽所能地生存下去,这可能包括实现对人类的统治。
对于一个神经科学家来说,这种推理方式令人费解。人工智能有很多风险需要担心,包括经济中断、生命关键应用的失败以及坏人的武器化。但最让人们担心的似乎是渴望权力的机器人,它们决定凭自己的意志接管世界。为什么一个有意识的人工智能想要接管世界?不会的。
我们极大地高估了人工智能接管人类社会的威胁,因为我们倾向于将智能与获得统治地位的驱动力混为一谈。这种困惑是可以理解的:在我们作为灵长类动物的进化史中,智力是社会统治的关键,也是我们繁衍成功的保证。事实上,智力是一种强大的适应能力,就像角、锋利的爪子或飞行能力一样,可以在许多方面促进生存。但是智力本身不会产生支配欲,就像角不会产生支配欲一样。
它只是在追求一个目标的过程中获取和应用知识和技能的能力。智力本身并不提供目标,只是实现目标的手段。“自然智能”——生物有机体的智能——是一种进化适应,像其他类似的适应一样,它是在自然选择下出现的,因为它改善了物种的生存和繁殖。即使是最简单的生物体,这些目标也是深藏在神经系统中的本能。
但是因为人工智能系统没有通过自然选择的考验,它们不需要进化出生存本能。在人工智能中,智能和生存是分离的,因此智能可以服务于我们为它设定的任何目标。意识到这一事实,科幻作家艾萨克·阿西莫夫提出了他著名的机器人第一定律:“机器人不得伤害人类,也不得坐视人类受到伤害。”我们不太可能在不知不觉中被数字大师掌控。
人们很容易猜测,如果我们是从其他生物进化而来的,比如猩猩或大象(地球上最聪明的动物之一),我们可能就不太倾向于看到智力和统治地位之间的必然联系。相反,我们可以把重点放在情报上,作为加强合作的促进因素。雌性亚洲象生活在紧密合作的群体中,但没有表现出明显的统治等级或母系领导。
有趣的是,公象生活在较松散的群体中,经常为争夺支配权而争斗,因为只有最强壮的才能够与善于接受的母象交配。猩猩很大程度上过着独居生活。雌性并不寻求统治地位,尽管竞争的雄性偶尔会争夺雌性。这些和其他的观察表明,寻求支配地位的行为与睾丸激素的关系比与智力的关系更密切。即使在人类中,那些寻求权力地位的人也很少是我们中最聪明的。
对终结者场景的担忧分散了我们对人工智能真正风险的注意力。它可以(而且几乎肯定会)被武器化,并可能导致新的战争模式。人工智能也可能扰乱我们当前的经济。一项研究预测,从长远来看,美国47%的工作岗位可能会被人工智能取代。虽然人工智能将提高生产率,创造新的就业机会,促进经济增长,但工人们需要接受新工作的再培训,有些人将不可避免地被落下。与许多技术革命一样,除非出台新的财政政策,否则人工智能可能会导致财富和收入不平等的进一步加剧。当然,任何新技术都有无法预料的风险,即“未知的未知”所有这些都比无意中的机器人接管更令人担忧。
毫无疑问,人工智能将在未来几十年为深刻的变革做出贡献。在最好的情况下,这项技术有可能将我们从世俗的工作中解放出来,创造一个所有时间都是休闲时间的乌托邦。在最坏的情况下,第三次世界大战可能会由超级智能机器人军队来打。但是他们不会被哈尔,天网或者他们更新的AI亲戚领导。即使在最坏的情况下,机器人仍将受我们的指挥,我们只能怪自己。
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢