点击蓝字
关注我们
张钹
中国科学院院士,清华大学人工智能研究院名誉院长、人工智能国际治理研究院学术委员会委员
9月6日,在百川智能Baichuan2开源大模型发布会上,中国科学院院士、清华大学人工智能研究院名誉院长张钹表示,关于大模v型本身的学术研究非常迫切与重要,到现在为止国内的大模型主要集中在垂直领域的应用上,因此他很支持百川智能把这次的开源模型定位在助力学术研究上。
张钹指出,到现在为止,全世界对大模型的理论工作原理、所产生的现象都是一头雾水,所有的结论都推导产生了“涌现现象”。“所谓‘涌现’就是给自己一个退路,解释不清楚的情况下就说它是‘涌现’。实际上这反映了我们对它一点不清楚。这个问题必须搞清楚,我们才有可能发展出有中国特色的大模型。”张钹表示,对此,有三个方面的问题研究比较重要。
首先是“大模型为什么能够产生出来非常连贯的、多样化的人类语言?”在他看来,这主要靠三方面的措施,第一是文本的语义表示,也就是把文本里的词、句、段落全变成向量,这给构造一个连续的拓扑空间创造了条件。第二个是转换器,注意力机制可以保证上下文的一致性。最后一个是下一个词的预测。
第二个问题是,大模型为什么会产生幻觉?他指出,这个问题涉及到ChatGPT跟人类自然语言生成原理的不一样,最根本的区别在于,ChatGPT生成的语言是外部驱动的,而人类的语言是在自己意图的情况下驱动的,所以ChatGPT内容的正确性和合理性不能保证。
张钹进一步指出,只有经过Alignment(对齐)才能解决这个问题。之所以能从GPT3.5到GPT4,几个月的时间有那么多的变化,主要就是“对齐”的功劳。而在“对齐”方面,国内做的工作太少。不过他同时也指出,做“对齐”是做治理,但是治理以后内容的质量、多样性会下降,所以还需要平衡开放和治理的关系。
张钹把ChatGPT生成的语言称作GPT语言。他表示,第三个需要研究的问题是,将来努力的方向是什么,是不是想把GPT语言完全对齐到人类的自然语言?他认为这个可能性不大。“因为想实现这个目标,你必须让GPT有自我意识。”
他同时表示,这样也没有必要,因为人工智能追求机器的智能,希望这个智能跟人类的智能不一样,它某些方面比人类有优势,某些方面比人类有缺点,只有这样人类才能和机器和平共处。“目前最重要的是,我们要研究、了解GPT语言,只有彻底了解了它,才能更好地发展它,使用它,或者说从产业的角度来讲才可以发展出更健康的人工智能产业。”
关于我们
清华大学人工智能国际治理研究院(Institute for AI International Governance, Tsinghua University,THU I-AIIG)是2020年4月由清华大学成立的校级科研机构。依托清华大学在人工智能与国际治理方面的已有积累和跨学科优势,研究院面向人工智能国际治理重大理论问题及政策需求开展研究,致力于提升清华在该领域的全球学术影响力和政策引领作用,为中国积极参与人工智能国际治理提供智力支撑。
新浪微博:@清华大学人工智能国际治理研究院
微信视频号:THU-AIIG
Bilibili:清华大学AIIG
来源 | 本文转载自新京报,点击阅读原文获取更多内容
评论
沙发等你来抢