
新智元报道

新智元报道
【新智元导读】「AI灭绝人类」的全球讨论继续升级,Sam Altman在剑桥活动现场被抗议者当面抵制!而LeCun、吴恩达的「开源派」和Bengio、马库斯的 「毁灭派」,也纷纷甩出言辞恳切的联名信,继续征集签名中。



开源AI,危险吗?
很应景的是,最近一项来自MIT、剑桥等机构的研究认为:开源LLM,的确危险!




「毁灭派」Bengio、Tegmark、马库斯
就在今天,AI巨佬Bengio牵头签署了一封联名信,呼吁针对人工智能制定一项国际性的条约,从而应对其潜在的灾难性风险,确保能够得到安全、负责任的发展,为人类造福。

「开源派」LeCun、吴恩达
与此同时,站队开源的大佬们,也签署了一份呼吁人工智能开发更加开放的联名信。



图灵三巨头&吴恩达,论战再再再升级
图灵三巨头、吴恩达等人,一边签署联名信,一边永不停休进行着激烈的争论。 继昨天Hinton主动出站抨击吴恩达、LeCun之后,今天又开始了新的回合。 我怀疑吴恩达和Yann LeCun忽略了大公司希望制定法规的主要原因。几年前,一家自动驾驶公司的创始人告诉我,他喜欢安全法规,因为如果你满足了法规,就能减少事故的法律责任。

Hinton这句话又在暗示着,在AI监管问题上,科技公司支持可能并不是为了社会,而是自身利益的考量。 这么说来,Hinton本人是赞成监管的,但是有明明知道公司们的虎狼之心,让人不禁怀疑他的立场。 
而LeCun回应道,对外进行产品部署的规范化是可以的,尤其是对于驾驶辅助等生命攸关的应用,这是必要的。「我们反对的是规范人工智能的研发,特别是对计算量的任意限制」。 
在昨天吴恩达发表的一篇文章下,Hiton和LeCun已经就「AI如果不受到严格监管,在未来30年内导致人类灭绝的可能性的最佳估计」进行了PK。 
对此,吴恩达做出回应:人类在30年内灭绝的风险极低。若要说导致地球不适合人类生存的因素,还主要来自全球热核战争、大流行病或(不太可能)小行星撞击等大规模的灾难。 从很长的时间尺度内(数百年)来讲,低出生率/人口崩溃导致人类长期缓慢衰退也是可能的。与这些风险相比,恶意的AGI杀死80亿人的想法似乎不那么明显,也更加遥远。 
人类智力和AI的结合能够帮我们更好地解决许多问题,包括上述存在的问题。所以我相信人工智能将降低人类的综合灭绝的风险。 如果我们想让人类在未来1000年里生存和发展,与其用繁琐的规定来减缓AI的发展,我宁愿让它发展得更快。 
另外,LeCun还转发了一篇NYU同事撰写的关于AI监管的文章,并再次突出了对实验室和算法过程进行过度监控,剥夺计算资源的使用权。 
全球AI安全峰会:28国签署宣言







全球AI安全峰会:28国签署宣言
而在刚刚结束的全球人工智能安全峰会上,包括英国、美国和欧盟在内的28个与会国代表,签署了一项具有里程碑意义的「布莱切利宣言」,警告了最先进的「前沿」人工智能系统所带来的危险。 接下来,第二次会议将于六个月后在韩国举行,第三次会议并将于一年后在法国举行。 
宣言写道:「这些人工智能模型最重要的能力,有可能造成严重甚至灾难性的伤害,无论是故意的还是无意的。」 「人工智能带来的很多风险本质上是国际性的,因此最好能通过国际合作加以解决。我们决心以包容的方式共同努力,确保人工智能以人为本、值得信赖和负责任。」 不过,就这项宣言本身而言,并没有设定具体的政策目标。 参考资料: https://twitter.com/timjmoy/status/1719825473591484436 https://twitter.com/ylecun/status/1719698694449033297 https://twitter.com/tobyordoxford/status/1719733486834131309 https://the-decoder.com/open-source-language-models-could-simplify-bioterrorism-study-finds/ https://www.theguardian.com/technology/2023/nov/01/elon-musk-calls-ai-one-of-the-biggest-threats-to-humanity-at-summit



内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢