欧洲科学院外籍院士、清华大学计算机与科学技术系长聘教授、清华大学人工智能研究院常务副院长
近期,欧洲科学院外籍院士、清华大学人工智能研究院常务副院长、人工智能国际治理研究院学术委员孙茂松教授在北大光华和度小满联合推出的大模型公开课上进行演讲,题目是“生成式人工智能(AI)及大模型对科技、文化和教育的影响”。孙茂松在演讲中表示,AI 会推动技术创新的变革,同时,AI 的信任风险和安全管理也将是重要市场。据Gartner预测,到2026年,将有超过80%的企业会使用生成式 AI,而2023年这个比例不到5%。因此,孙茂松提到,未来,AI 促使人类文化形态可能发生重大变化,大模型更深介入虚拟空间,大模型开始走向具身智能,而且世界不断拓展大模型各类垂直应用等新的趋势。孙茂松预测,随着大模型技术的成熟,将会出现新的商业模式。他鼓励企业和研究者探索大模型在垂直领域的应用,以形成独特的竞争优势。他认为,大模型将深刻影响教育模式,包括教育大数据分析、知识图谱构建、智能辅助教学软件开发等。同时,孙茂松教授也提醒观众,大模型技术可能带来的“幻觉现象”需要被认真对待和防范。在会后对话中,谈到近期国内大模型价格战,孙茂松强调,只有把大模型的基础能力达到很高水平,才会对拓展商业模式会有直接的作用。有了大模型能力再去做应用模式、商业模式,可能基础就更加好。当然,这两件事儿可以“并行不悖”。如果企业把垂直领域解决好了,它还是有可能探索出一条新的商业模式的。“值得关注的模型的数量美国有61个,中国是15个,我们也是排老二,和美国比,我们还是有比较大的差距。”孙茂松称。孙茂松指出,中国的当务之急,可能还是要把大模型的能力提上去。他预计,三年之后,通用大模型应该还是在会极速往前发展,大家试图把大模型、大数据、大算力会做到极致,比如做到人脑参数规模等,所以大模型、大数据、大算力在全球范围内应该是会有一个激烈的竞争。另外,届时国内应该在垂直领域做出一批有相当影响的技术和产品应用。同学们好,我今天讲课的题目是“生成式人工智能及大模型对科技、文化和教育的影响”。这一波席卷全球的人工智能高潮,我们知道它的特点,它的标志叫生成式人工智能。它背后的计算机制叫大模型,这个大模型英文叫GPT,然后我们把这两件事情连起来说。我会讲讲这个模型的特点,根据这个特点来看它对我们科技、文化和教育的影响。大家知道,GPT叫Generative Pre—trained Language model,这是简缩写成叫GPT,我们叫语言的生成模型。这个模型驱动它的机理实际上是非常简单,叫“下一个词预测”。比如说我今天早上喝了,下一个词是什么?是你可以说喝了粥,喝了汤,喝了面好像说的就少一点是吧。喝了桌子,基本不说。但是我说喝了桌子上的汤就可以。所以实际上我今天早上喝了,后边,GPT就会让计算机猜下一个词应该是什么词。如果说“喝了汤喝了粥”这是合适的,“喝了桌子”就不太行。所以它就靠这么一个简单的策略来驱动它这个模型的学习。
这在物联网规模的语料库上跑下一个词预测之后,这个GPT模型它就训练完了。训练完了以后,这个模型它就可以说人话,也可以对人说的话有一定的理解。所以它就形成了三个特点:一个特点,它是有比较准确的理解能力。什么叫理解能力?以告诉计算机一句话,这句话的意思计算机听没听懂,搞没搞懂。这个GPT模型它实际上从它的表现来看,它好像听懂了,开放式问它一句话它基本懂。你比如说你问它“世界最高的山是哪座山?”它这个GPT模型你送给它这一句话,它处理的时候实际上是怎么做呢。比如先说第一个词,相当于它走到了一个路口,这个路口它会有很多分岔。你比如说可能像分岔它它后边会接什么词儿,我刚刚说下一个词预测对吧。现在你不用预测了,现在它告诉你是“世界”,所以分岔大概有五六万个分岔,因为汉语辞典中心辞典,像《现代汉语辞典》大概五六万个词,所以它实际上可能是碰到一个路口有五六万个分岔。在这儿它往哪儿走呢?当前你碰到的词儿是“世界”,它就相当这五六万个分岔每个上面都有一个小牌子,小指路牌,这个指路牌指“世界”这个词,它就往“世界”这个词去走。到了下一个路口,又是五六万个分岔,往哪儿走?最高,它就往最高那个牌子去走。所以它就这么七拐八拐,走到一个目的地,那个目的地是什么?就是哪座山?它就是这么处理一下。处理完之后对不对呢?答案,问答嘛,你告诉它珠穆朗玛峰,这是计算机回答的,说明它对这句话的意思它理解的。然后你如果换一个说法,比如“哪座山是世界最高的?”注意,它这次就从头来了。第一个路口它往哪儿走了?它不往世界走了,它往“哪座山”,这个路牌指到哪座山,它还是那么七拐八拐。你可以想象,它最后走到的目的地和第一句话那个目的地可能差的非常非常远。但是在那儿等着它的答案还是珠穆朗玛峰。所以实际上体从GPT的表现你会发现,它好像对这句话理解了,因为它对这个问题能给出正确的答案,所以它的理解能力还是比较准确的。你去看它的模型,它不应该有这么强大的理解能力。但是GPT模型通过我们所谓的大模型、大数据、大算力的加持,它好像把这条做到了,这是它的一个特点。第二个特点,这种模型它具有十分强大的生成能力。什么叫生成能力?就是它说话的本领特别强。我们可以举个例子,这时候就不是给它一句话了,这时候它还到那个路口,到的这个路口它可以往哪儿走。它只要是走一条道,一条道走到底,它就形成了一句话。你比如说碰到第一个路口,我有很多选择啊,比如说我有五六万个词可以选,我愿意说哪个词说哪个词儿,从五六万个路口里面你去选一个,五六万个分岔里面去选一个分岔来说。我们假设现代汉语我刚才讲了五六万个词,你有五六万个选择可以选。分岔实际上有宽有窄,你比如说刚才说“喝了粥”,这个路属于比较宽的。“喝了桌子”,这路就比较窄。那生成的时候一定去挑比较宽的路走,这样它生成的语句是比较通顺的。好的,五六万条分岔你从里面选一部分比较宽的路走。我们假设比较宽的道平均有一百条,五六万个分岔中有一百个分岔是比较宽的,我就挑这一百个分岔来走。那好了,假设我们现在要写一首五律,拿计算机做诗,五八四十个字,每一个路口我选一个字,最后它会过多少个路口呢?五八四十个字,四十个路口。每个路口选一百条比较宽的分岔去走,最后可能形成多少不同的可能比较通顺的五律呢?这个数很容易算,就是什么,就是四十个一百连乘,就是一百的四十次方,十的八十次方,就会形成这么多手可能比较通顺的五律。十的八十次方具体的数有多大呢?可以算一算,这个数量实际上是非常巨大的,和整个宇宙中的粒子数的数量差不多。注意,和宇宙中的粒子数差不多。所以我们人类有史以来到目前为止写出的五律,保留下来的五律应该不会超过100万首,几十万首的规模。但是计算机可能产生比较通顺的五律,它是一个巨大的天文数字,所以可以想象它的生成能力十分强大,这是它的一个特点。这个特点我后面还会接着讲,它实际上是赋予了机器一种很强的创新能力,或者说创造能力,这是两个特点。较为准确的理解能力,十分强大的生存能力,这都是正面的,这是积极的。另外一个应该是它的方法致命的弱点,它叫做与生俱来的幻觉问题。什么叫幻觉?它产生的那个句子,生成的那个句子可能是有问题,可能出错。另外它理解这个句子也可能会出错,所以它会产生幻觉,因为它这个模型下一个词预测它本身是个概率模型,它跟我们人思考问题是不一样的。我们人思考问题是按一种逻辑推理来做,它这是一种概率数的推理。它到每一个路口往下选择走路,它完全是根据概率来做的。你可以认为是按概率随机游走,所以它这个东西必然会有幻觉现象,这样就对我们用模型提出了很严峻的挑战,就是它会出错,它会说错话,而且这个说错话还是不可避免的,所以我们用他就要小心了,所以它基本上是这三大特点。前两个特点是优点,第三个特点是弱点。但实际上这里面弱点它也不完全是弱点,它这里面其实也是某种创造力的表现,就是它说的比较多,它可以说的话选择的空间比较大,里面可能说一些错话,但也会说一些你没听过的话,所以这个东西你要辩证的来看,它这三大特点。它靠策略,现在的像GPT,后来的ChatGPT,其实它对语言的理解能力还是很强的。这张图是国外的一个观察,它实际上是我们用很多,大模型我们都会她一些原来考人的问题来考大模型,我们叫benchmark,这个MMLU,benchmark只是其中一个,它实际上是多任务的语言理解问题。你比如说中小学的数学题来考这个模型,可以用历史题来考它,用计算机科学的题来考它,用法律的题里考它,以前都是考人的,现在开始考机器。现在这种GPT模型它理解能力怎么样呢?这张图可以看到,像人类平均水平大概是百分之大概能拿到34.5分,就是你随便找一个人过来回答这些问题,他不及格,他是34.5分。GPT3可以到43.9分,GPT3.5,就是ChatGPT的那个基座可以到70分。GPT4,就是ChatGPT之后大概几个月推出的GPT4,可以到86.4分。人类专家是89.8分。所以你看它这类模型虽然它会有这样那样的问题,但是它的能力还是比较强的。但是我说了它会出现幻觉,幻觉这个词儿动词叫hallucinat,名词叫hallucination,这个词入选了去年剑桥辞典的年度词,一年选一个词儿,最有代表性的词儿,它选了hallucinat,剑桥辞典认为这个词非常好,这个词不是新词,以前就有“幻觉”这个词,但是在人工智能出来之后,赋予了这个词新的含义,就是hallucination,意味着机器会阐释faise information,错误的信息,它觉得这个词好,充分反映了人工智能发展的特点,以及人机之间的关系,它把它选为了年度词。实际上系提示我们大模型的hallucination这个现象是非常非常值得我们关注的,所以这两张图一个是看它的能力很强,但是hallucination幻觉也是很严重的问题,这两方面我们都需要密切的关注。这种生成式人工智能就开启了人类一种全新的创造模式。这句话是我说的,不一定都对,大家不一定都同意,我是这么认为的。你看这三个圈,这个小圈是什么,是人类创造的现实空间,你比如说五律,我们写的不到100万字的五律,古人写的五律就是那个小圈。然后我根据这个小圈,我用GPT这种模型去学人写诗的规律,注意,它是全自动去学的,这个过程中不需要诗人来教它,它是全自动学的。学出了写诗的规律,它就可以写。这个大圈我说了,大圈可能是不靠谱的,那个中圈是写出的比较通顺的五律,我刚才讲这个数字实际上是非常大的,数目是非常巨大的,跟全宇宙的粒子数差不多,那是中圈。所以中圈是什么,它实际上是计算机已经给它写出来了,把诗给它写出来了。我举个例子,大家知道杜甫有一首诗叫《旅业书怀》,非常有名,我们很多人都会背。细草微风案,危樯独夜舟。星垂平野扩,月涌大江流。名岂文章著,官应老病休。飘飘何所似,天地一沙鸥。这诗写的非常好,你要让人工智能写出这种水平的诗可能难。但是写大概齐看起来还像样的这种诗还是可以的。比如说九歌是我们的系统,我们自己设计的系统叫九歌。你还是用杜甫时的名字,叫《旅业书怀》,让它去写五律,它就会写出很多首来,这个数量会很大。我这里边挑了三首摆在这儿,比如说第一首,酒尽寒箫竹,这里面它扣了“夜”了,寒宵竹,酒尽寒宵足,凄清感旧游,这是跟旅扣上了。乡心随水远,别恨逐年稠。生计愁中物,归期梦里游。何当脱尘秧,“秧”这个字有两个音,一个念yang(一声),一个念yang(四声),在这儿念yang(四声),一笑拂吴钩。你看看它这里边,实际上我们写一首五律,每句话五个字,这是最表层的。写五律,写律一定要押韵,比如游、稠、愁、钩,它这个符合。然后要讲平仄,酒尽寒宵竹,这是仄仄平平仄,竹在古代是仄声。然后凄清旧游,平平仄仄平,它要讲平仄相对应,这是韵律。另外它中间四句要讲对仗,比如说乡心随水远,别恨逐年稠,对仗。所以你会看到,它这个模型就把五律中的这些规律它都学会了,它是自动学会的,不需要人去教。好了,这首诗如果你不满意,下边还有。比如说岁幕怜为客,飘蓬未有期。寒宵灯影瘦,独夜雨声悲。薄命随人老,孤踪似烟鹝,后边还有两句。大家会觉得,你这好像不押韵啊,凄悲,对不起,它这儿压的是古韵,叫平水韵,古人这是押韵的。所以它这个模型就变了,我们以前写诗,你是基于这个小圈,你去殚思竭虑,你想要写出新意,要突破这个小圈。但是突破小圈其实很难的,因为你会受到你自己的某种制约,你要突破自我这实际上是非常难的。你可能会在小圈周围,突破小圈在小圈周围走不太远,但是我们这个大模型它会把中圈都给你产生出来,你不要去想了,它给你产生出来。然后你在里面什么,这一个是数量太大了,而且都是大概齐靠谱的五律,那你作为人干嘛呢,你就不用去想它了,从这里面挑,所以需要你有鉴赏能力,你要从里面去选哪首诗写的不错,哪首诗写的符合你的心境,你要去挑。另外我说了,这种模型它不是完美的,它写的诗可能有的地方也不通顺。另外有幻觉现象,它会写错,这时候需要你有本领有能力去改。所以我们的模式就变了,比如这三首诗里边你觉得哪首好,你可以挑。哪个字你不满意,你去改,就好像王安石比如说我们都知道春风又绿江南岸,他最初写了很多字,春风又到江南岸,春风又满江南岸等等,最后他改成“绿”,也有水平改,这一字诗它就活了,你要改这个东西,所以实际上创作模式又变了,我们人在里面的地位作用就变成什么,你去挑诗,你去改诗,它变成这个东西了。注意这个很重要,这个非常重要。然后其实你也不一定写五律,你可以写七率,杜甫的时候是五律,你要给它七律,机器也会写。比如说还是旅夜书怀。一囊行李又匆匆,夜雨潇然客梦中。万里乡心归雁外,半床秋色乱红中。它就写出来了,你说它是不是有创造力,它写的诗像不像,应该是有创造力的。这类东西放到写诗是这个道理,用来解决人工智能加科学问题其实也是这个道理。比如去年11月,《nature》,这是咱们科学领域最高的学术期刊之一《nature》《自然》,它就发表了一篇文章,这篇文章是谷歌deep mind做的,deep mind是哪家,就是做AlphaGo那家,它说用大模型深度学习,就是我刚才讲的这个模型,它发现了数以百万计的新材料,其实它的原理跟我刚才写诗是一样的,它把人类已经发现的新材料就是我那个小圈,它根据那个小圈里去总结材料的各种规律。比如它的分子式,最后它生成那个中圈,那个中圈就是比较靠谱的新材料,然后它提示给专家,我发现了这么多,好几百万种可能是有意义的新材料,具有某种性质的,专家你是干嘛,你去挑,你利用你专家的知识,哪个东西是不错的你去跳。然后它可能有问题,你再去改一改。所以它这个模式就变成了实际上都是通的,是人工智能+X的一个模式,所以我说它是人类创新的一种全新模式,用这种模式它会大大加快科学发现的进程。我说了,刚才讲GPT的这套思路,实际上它用到了我们生成图片,包括生成视频,它的核心算法基本上是差不太多的。所以我们现在碰到像文生图,或者视频生成,其实它的特点跟我刚才讲的我去让它说话的那个特点是一样的,它都有三个特点。两个特点就是它理解能力比较强,它的生成能力也比较强,但同时都会有幻觉,都会产生错误的信息。所以这个东西一路下来,三个东西是一样的,因为它内在的算法逻辑是一个逻辑。图片也是,比如说你让它去画一个画,比如说你给它一段文字描述,发出一套指令,你想画一个比如说机器人读书的这么一张画,对这机器人有些描写它应该是什么样的机器人,它就画出了左边这个机器人,就是midjourney就画出了左边这个机器人读书。但是你注意它右边,它还有很多这种照片在等着,就跟我写诗是一样的,你从里面去挑,然后去改。视频同样也是这么一个来法。所以实际上在文本、图像、视频生成过程中都是这么一个算法在起作用,这三个特点是贯穿始终的。好了,到这儿我们就知道了,生成式人工智能的基本定位是什么。它的基本定位它不会取代人类,为什么?它会出错,它会有幻觉,它不会取代人类。它擅长的是启发辅助人类,所以我们一般会把它叫做copliot,就是副驾驶,就是它不太可能成为主驾驶,一辆车它自己开跑,它取代了我们人类成为主驾驶不太会,它是副驾驶但是这个副驾驶水平比较高,它离不开主驾驶,但是它水平还是比较高的,它会挑主驾驶。你主驾驶水平不够,你驾驭不住它,所以它会取代相当部分的低端的智力劳动者。你比如刚才写诗,你的水平又要比人工智能写诗要高,你能判断,你能有鉴赏能力去挑人工智能写的诗哪个诗是好的,你要有能力去改这个诗,所以实际上对人的要求是更高了。当然数量它会减少,因为人才都是越往高端走人越少,人工智能会逼迫着你不断的进步前进,向高端去走,大概是这么一个来法,这是它的基本定位。它有创造能力,但是它对那种0到1的创造它可能不一定行。你比如说它能不能发现牛顿定律呀,能不能发现爱因斯坦方程啊,这里它不太行,它还是从人类已有的数据去发现里面隐藏了某种模式,根据这个模式把一些新的东西产生出来,它有这种类类比的创造能力,但是像0到1的原始创新它还不行,这种人才是天之骄子,才能做这个事儿,所以不要担心人类会被系统被这种大模型替代。但是对于个体,你应该有危机感,你比如说我们以前培养艺术家,比如我们培养齐白石、徐悲鸿。学艺术的人,首先是很多艺术学校学生,大批的,然后大家不断的进步,不断的历练自己,最后少量的人成为了艺术大师,成为了徐悲鸿、齐白石。以前金字塔下边这批人,金字塔下部分底座这部分人显然是多的,这部分人以前都会有它乐得其所的工作场所,你比如说他可以去做艺术设计,他能找到工作岗位。但人工智能出来之后,有可能这批人会受到比较大的影响,有可能。为什么?计算机作画它可能水平已经相当高了,如果你的绘画能力你超不过计算机,可能你就找不到合适的位置了。但你比计算机水平高,他肯定没问题,会找到更好的工作。所以它就会对我们这个金字塔式的就业结构会产生影响,这是我们大家要关注的,所以它就要求我们人一定要不断的前进,要终身学习,你不能自己躺平。为什么不能躺平?人工智能在后边督促着你必须不断的前进,大概是这么一个基本定位。我们在大模型时代一定要有大模型的思维,这个词也是我想出的一个词,叫大模型思维。大模型在国外它不叫大模型,他们比较喜欢叫基础模型,叫foundation model,它实际上构成的什么,构成了一切信息处理系统的一个基础。这里面有很多例子来显示它这个大模型思维的好处,比如说这应该也是《nature》上发的一篇文章,它做什么事儿呢,它实际上用在了人文科学里面。你看右边这张图,实际上是古希腊的石碑,黄色这个部分上面有字母,黄色部分是还存在的,黑色部分那实际上是已经剥落了,所以字也没有了。对历史学家一个很重要的任务是说我能不能把那些剥落的字给补全,给补上去。补上去,相当于古代文献,你就把它救活了,它里面传达的古代的信息就出来了,所以这是一个很艰巨的任务。但是对人来说,对历史学家来说,实际上人会受到它的各种限制吧,比如你看它这里面图的第一行有这么多字母,人可能去猜就不太敢猜了。那大模型来做,我们可以用一个我们叫做bot模型,大模型不光是生成模型,它有若干种模型。bot模型它是另外一个机理,这个bot模型实际上是基于我们,比如你学英语,经常有一个练习叫做完形填空,就是一句话,我把这句话中的某个词,往往是比较关键的词给遮挡住,然后让文章中的其他这些词,你根据句子中的其他词来猜我遮挡住的这个词是什么词。大模型用这个机制来处理,最后它理解这句话,它会把这句话理解的更加透彻,这叫bot模型。bot模型它实际上,好比古希腊那个文字,刚才讲了那个文本,它把古希腊文本中任意一个词遮挡住,然后用没有遮挡的词来猜我遮挡的是个什么词儿,它把所有的古希腊我们已经解读出来的文献都做了处理,它实际上就变成了里面你遮挡住一个什么词,它就会猜遮挡的是什么词儿。好了,它有这个能力之后,在这个地方正好是它那个词不用你遮挡了,它就剥落了,然后模型就去猜这个东西到底是什么字剥落了,这就特别适合大模型来做,这细节我就跳过去。它做出的效果是什么呢?历史学家做这件事儿它的性能大概是25%,因为它缺字缺的太多他就不敢猜了。这个系统叫Ithaca,它性能可以做到62%,你看从25%到62%,大幅提升。人和机器结合起来,它可以做到72%。所以你看,它就比较好的解决了历史学的考古的问题。另外还有一个例子是什么,这也是deepmind做的。前几年大家知道,它做一个alphaford,就是蛋白质折叠问题。实际上这个问题的输入是什么,就是左上角蛋白质的一个基因的序列,比如STUEKRKKT,一个序列,它来预测什么,就是这个序列是个线性序列,但是它真实在我们人体中是按照三维结构,它是有结构的,它会各种折叠,形成各种形状。它不同的形状会形成不同的性状,来决定你这个人比如说体是有什么病,你的身体的各种状况。你注意,在三维空间里面它折叠的数量也是非常多的,基本上也是跟圈宇宙中的例子差不多,变化无穷。所以以前做这件事儿是很难的,因为这个数量太大了。它现在用类似我刚才讲的写诗的那个办法,大的方法差不多,它就可以把蛋白质折叠的结构它能预测的比以前要好很多。这件事儿在生物学里面其实是引起了非常大的轰动,有人认为这可能是一个准诺贝尔奖级的工作。大家注意,deepmind这个公司,deepmind这个老总叫哈萨比斯,做AlphGo的那位,他其实并不是一个生物学家,但是他做这类工作他就有可能做出类似诺奖的成果。所以你看大模型它用到解决科学问题也是很强的。还有一个例子是做天气预报,天气预报,很多我们以前的天气预报系统,天气预报是高度复杂的。我们以前做天气预报都是基于大气层的物理模型,大气物理学家一块儿来,顶级专家构造物理模型,通过几十年的努力。这个物理模型做预测,还要和比如说卫星数据,和水文站的数据配合起来我才能做天气预报,做比较准确的天气预报。但是天气预报太难了,实际上要完全达到我们的预期也是不容易的。谷歌它前两年做的一个系统,叫mnasnet,它完全是基于大模型来做天气预报,它不需要大气物理模型,它只需要数据,也不需要大气物理专家,它都不需要。就跟我刚才写诗一样,写诗它也不需要诗人去教它,它只要诗人写出来的诗那些数据。这儿它只要所有的气象数据,然后它就自动的去学,去学一个大模型来做天气预报。它的效果是比美国国家海洋与大气管理局利用大气物理模型做出的天气预报,现在目前使用的系统效果要好。这个绿色的相当于美国国家气象局它的系统做出来的预测性能,蓝线是谷歌这个系统做的预测性,8小时之内预测它做的要比美国国家气象局那个系统做的要好很多。8小时之外,两个东西趋同了,性能就差不多。所以我通过这三个例子,你会发现大模型思维是非常的重要,它有可能对某些领域我们已经认为是金科玉律的东西,牢不可破东西它有可能提出某些变革性的方法,至少可以成为那个领域很重要的参考。你比如说还是天气预报,华为最近做了一个工作,它去年也发在了《nature》上,你看它这个图是预测什么,预测台风的走向。你看右边这张图,右边那个红色和黑色的曲线,台风就奔向了中国大陆。这实际上一个是华为的天气预报系统预测的,一个是台风实际走的路线。蓝色的是什么,蓝色的是欧洲气象局预测的结果,它是用大气物理模型经典的方法来预测。你看华为这个系统比欧洲气象局那个预测效果要好。欧洲气象局它向全世界推荐华为这个系统,说这个系统是你们可以参考的一个系统。因为华为,大家知道华为是做5G的,做手机的,天气预报一看它做的也挺好。华为不可能有这么多的气象学家,它完全是大数据驱动的,它就可以做出一个东西来,这个东西让天气预报领域里面会参考它,所以大模型思维就非常的重要,从这三个例子我们就能看出来。人工智能会推动技术创新的变革,这是显然的。gartner去年它有一个预测,它预测2024年全球十大战略性前沿技术,对任何领域,它不是光计算机领域,对任何领域。十项里面我看了它六项是和人工智能有关的,可见人工智能有多重要。比如第一项它叫全民化的生成式人工智能,什么叫全民化的生成式人工智能?比如说人工智能现在好比绘画能力很强,我就可以用它做艺术设计,比如做艺术设计初步的方案,可能不需要你有很强的绘画能力,你只要用这个人工智能的工具,你就可以做出一些很好的艺术设计的初步的方案,我自己就可以开公司了。我开个小公司,我请一两个画家,我自己不会画,但是大量工作让人工智能做,我再找一两个画家,真正帮我改人工智能生成的这个创意,他就可能创业了,所以这叫全民式的、全民化的生成式人工智能。gartner预测到2026年,将有超过80%的企业会使用生成式人工智能。2023年这个比例不到5%,到2026年短短几年就会到80%。另外它也预测,比如像人工智能的信任风险和安全管理也会是一个市场。我刚才讲了,它会产生幻觉现象,我用它的时候,它可能会出问题。但我怎么来规避这些风险,有些公司就可以做这些事儿。AI增强的开发,这我们后边会讲,人工智能它现在写代码能力也很强,我可以写代码,不仅仅可以写诗,可以写代码。写代码,一些开发程序的公司我用它来做增强开发,会提高代码生成的效率,这也是一批应用。另外智能应用是显然的,各行各业智能应用,比如说汽车中的好比语音识别、语音合成这类都会有很大的发展。像OpenAI前两天又推出4o,那个4o它和人交互用非常自然的自然语音来交互,将来在汽车里配上它,可能比现在要更好,这有一堆的智能应用。另外还会产生一批机器客户。我们以前都讲客户是人,人才是客户,怎么有机器客户呢?我读了读gartner的报告,我理解,它实际上是说当机器智能到一定程度的时候,机器就会成为客户。你比如说我是一辆无人车,无人车我发现自己没尤了,无人车自己就开到加油站去了,开到加油站跟师傅说我没油了,你给我加几号油,给我加多少升。师傅也理解了,理解了之后师傅跟它确认,你是要加多少吗,跟它对话,现在ChatGPT有这个对话能力,就理解了机器它要干嘛,然后把油给它加上了。加上以后机器把钱一付,机器付钱也没问题,开车自己走了。这个市场会非常大,gartner预测到2028年全球会有150亿台联网产品具有成为客户的潜力。我们全球的人现在大概是70、80亿,所以这是比人还多,这块的潜力会非常大。另外可持续发展技术,比如说低碳,我要跟踪全球工厂的碳足迹,我用卫星照片来监测,这个时候人工智能大模型就会起很大作用了。实际上人工智能都会对方方面面有很大的推进作用。这是显然的,比如我们现在可交互的聊天机器人,这个显然会做的越来越好。从去年开始,人形机器人非常火,配上人形机器人这一块应该有很大的市场,比如说我们陪老人聊天。现在大模型基本上它上至天文,下至地理,三教九流无所不通,所以跟你聊天的能力是很强的,它可以做个性化的聊天,这块会有很大的空间。包括可以丰富元宇宙的技术手段,你比如说Sora,它生成三维动画能力很强。比如说和智能眼镜配合起来,你用户的立体观感就会更强,所以这块的发展空间是很大的。麦肯锡去年有个预测,它大概分析了全球47个国家的855种职业,这个细节大家感兴趣的可以读这个报告。它最后的结论是,生成式人工智能每年可以为全球经济增加2.6—4.4万亿美元的收入,这实际上是对经济的推动作用非常强。所以这里它讲的不是人工智能,它是生成式人工智能,是人工智能中的一个分支,生成式人工智能。人工智能对经济影响非常大,我刚才讲了,它对人类文化形态也会产生重大的变化。为什么?人类有史以来,比如说从我们人类创造文字,大概六七千年的历史,两河流域的楔形文字。从那时期,写文章,画画,到现在的夺视频,这都是人,只有人才能干的事情,对吧。人创作出来的这些东西,可以影响我们人类。现在好了,机器都可以做了这些事儿,所以机器就有可能影响我们人类的文化形态。所以这块实际上我们面临了一个我叫6000年未有之大变化,这些事儿机器也可以干了。机器做这件事儿的效率比我们人要高多了,它不知疲倦,速度又快,可以产生无穷无尽的内容。这种内容一旦放到网上,它就会影响我们阅读这些内容的人,所以这个东西会使人类文化形态发生重大变化。这是ChatGPT,大家用ChatGPT,这是国外的一个统计,大概每秒钟现在会产生150万个词大家用它。这一听好像数量不太大,一秒钟产生150万。但是你要知道每天,每天它会产生1000亿次,这都是机器产生的,每天就产生1000亿次,将来它可能就会充斥整个互联网,它会影响我们。这一幅图片完全是机器生成的,这个画的名字叫做天空歌剧院,你设想的太空造一个歌剧院它是一个什么场景。这一幅图片它去参加了美国一个博览会的创意大赛,拿了一等奖,所以在艺术领域就引起了轩然大波。大家就争论,这个东西算不算艺术?很多艺术家就不认可。你不认可,但也是顶尖的艺术家把它评为了一等奖,所以是有些矛盾的。人工智能创造这类作品,我个人认为应该是有创造力的,应该是一种艺术。沿着这条路伸展开来,它还会产生很多影响,比如说在时装工业领域,大家都在讨论人工智能会引起fashion,这是容易想到的。比如说你拍一个图片,拍一个图文,我穿一件衣服拍一个照片,你让人工智能判断,说我穿的这个衣服合适不合适,适合不适合我呀?这路应用将来会很多。甚至比如说你让它做艺术设计,这是国内华中科技大学蔡新元教授,他用midjourney,他想设计一个具有木星风格的时装。midjourney就给它推荐,这是midjourney画出来的,你看画的还是非常好的。木星的时装你应该这么设计,有木星的感觉。你让人去想,有时候还不太容易想到这个东西,机器它可以有很丰富的想象能力,会帮助我们人类。所以《science》这也是科学领域最著名的期刊,两个期刊,一个是《nature》,一个是《science》,《science》文章就在讨论,叫做art and science of Generative AI,讨论生成式人工智能和艺术的关系,大家非常严肃的在讨论这个问题,这也是去年发生的,所以你会看到生成式人工智能的辐射作用。美国国家科学院院刊他们在讨论什么,生成式人工智能是不是能够促进社会科学的研究?它的结论是,应该能够有帮助,尽管有很多局限性,但是因为生成式人工智能能力很强。他举了一个例子,比如我们过去做一些社会实验,他必须去问被试的人,被试的人他会去挑,这个被试的人往往是不容易去挑的,现在大家不一定愿意配合他做这件事儿,比较麻烦,用他们社会学家的说法来说,被试的人的选择以及用他是不能麻烦的,也比较贵。但是现在好了,现在他比如可以给一个数字人,你给它赋予各种数字画像,比如这个数字人它的特点是什么,比如她是一个大学的老师,一个大学的女性的老师,她可能是一个助理教授,她这个人性格是什么性格,你可以有所描述。就是符合你社会学观察属性的东西你赋予给这个角色,然后机器问它问题看它怎么回答。这样很多社会实验,那个被试者就可以变成用机器人代替了,就不一定是真实的人了。他们发现,这个东西好像是可以工作的,人工智能Chatbots,它的有些细节表现好像跟人有时候区别不大开,所以有些社会学实验就可以用这套办法来做,这样你就可以用虚拟的人来做实验,实验规模就会不受限制。同时你再和线下的真实的人去配合,等于两条腿走路,这样对社会实验的效果反而会更好。这件事儿大家社会科学家也在积极的探索这个问题。大模型现在除了刚刚讲的大模型+X。新的趋势有两个趋势,一个趋势它开始走向具身智能,不管是文本、图像还是视觉,基本都是在数字空间。现在大模型大家希望把这个方法引到具身智能,引到物理空间,比如说控制机器人,让机器人具有某种自主性,这是目前一个研究的热点。这很难,在通用开放环境下做这件事儿可能做不成,没那么容易。但是在一些特定场合让机器人具有相当灵活的自主能力是可能的,思路还是大模型,相当于把轨迹让机器去学运动轨迹的功率,让它比较好的运动。另外一个趋势就是大模型可以更深的介入到数字空间。因为现在大模型有了什么能力,它对话能力比较强了,你说一句话,比如人对机器说一句话,机器它会理解你说的这句话是什么意思,这以前是做不到的,现在大概八九成它能理解。另外大模型代码能力也挺强,比如这是特斯拉的前人工智能的负责人他说的一句话,他说现在最热门的新的编程语言是英语。这话是什么意思呢?以前编程都是程序员做,现在你只要会说英语,你就可以编程,这其实就显示机器人编程的能力现在还是不错的。因为编程要求高,一行代码不对,它这个程序编译也编译不过去,所以它大概能做到比如七八成。好的,现在对话能力有八九成,编程能力有七八成,这两件事儿它都不完全靠谱,但是它又有一定的靠谱度,那能不能把这两个结合起来,就像我们人一样,我们几个人可能都不太完美,但是我们互相商量着来,过去有一句老话叫“三个臭皮匠,凑成一个诸葛亮”。这事儿有没有可能呢?这是我的学生去年的工作,这是可行的,在一定条件下是有可能做成的。这是我的一位博士后他做的一个工作,是这样,你看像游戏似的每个小人,每个小人都有一个角色,它们要合作干嘛,合作开发程序。其中小人有的是CEO,有CTO,有程序员,有程序的检验员。这些人在不需要人帮忙的情况下,不需要人介入的情况下,它自主的来开发一个东西。比如说让它开发五子棋这个程序,CEO就对CTO去下达指令,说你下边我要求你去开发一个五子棋的程序。CTO就跟程序员说,你们去开发写一个五子棋的程序,这个五子棋的程序有什么特点,要满足什么条件,这才叫五子棋。然后程序员领了任务之后,他就用ChatGPT写代码的能力去把这个程序写出来。写出来编译一看,有问题没通过,那个检验员看了这个东西就会说,你这个东西好像有错,有什么类型的错误,因为编译会告诉你第几行比如哪个变量可能不对。检验员他有经验,他会把这个东西再提炼提炼,就跟程序员说你这个程序好像有的地儿可能有问题,把问题给指出来。程序员再重新调用写代码,把代码给它改写一下。这样我说了都不靠谱,都不完全靠谱,基本靠谱,但通过交互,它最后就把这个五子棋的程序就写出来了,几分钟就写出来了,而且非常便宜,大概成本几美金。所以这一路就变成了它不需要人了,这完全是自动的,它也不是永远什么任务都可以做,它对某些任务可以自动的把事儿完成,所以这个研究等于是开辟了更广阔的空间,这是我们以前不太能想象的。这个工作还是在互联网上引起的比较大的反响,我注意到像youtube上有不少老外的技术专家用整段视频来介绍这个工作。右下角这是斯坦福著名的教授,叫吴恩达,他最近在一次活动中也特别介绍我们这个工作,他实际上说这个工作显示什么,他说我用生成式人工智能,再加上它的代码能力,它有可能自主的完成某种还算比较复杂的任务。当然太复杂的任务它做不了,这实际上是未来的方向,所以实际上我们有很多应用的空间。往下走,我们需要不断的拓展大模型各类垂直应用,去年基本上大家都在做通用模型,往下走就要做垂直应用,垂直业用实际上是不容易的,要落地,现在是成为了一个重点。去年彭博社,这是做金融领域很有名的一家公司,Bloomberg它自己就推出了一个500亿参数的大模型,叫BloombergGPT,它是把3600多亿词的金融文本加3400多亿的通用文本结合起来,它训练了一个BloombergGPT。它会在这个模型基础上,它把它看作基础模型重构Bloomberg的所有业务,这块是一个典型的垂直领域应用。金融领域,大模型我觉得能够取得落地,比较重要应用的一个领域是金融领域。你比如说这里面有很多选择,大模型你可以选择闭源模型,也可以选择开源模型,也可以自研,这要看里的实力。比如闭源模型你用,因为那个模型你没法去调,你只能用prompt,只能用指令,来解决下游任务垂直领域的任务一般来说不太行,因为像金融领域实际是非常复杂的任务。开源加上微调,这是一个路子,自研模型如果有能力的话,也是一个比较好的选择,形成你金融领域的大模型。这一块实际上既有简单场景,也有复合场景。简单场景你可能用一些开源加微调,可能就能处理的不错。但是复合场景,你光靠微调可能不行,这时候自研就变得非常必要。我知道像国内度小满在这方面就做了很好的探索,它实际上是在自研模型。为什么?你比如金融领域它可能有大量的图表,一般的语言模型处理图表的能力实际上是会受到某种限制的,不是特别强。另外金融领域数字特别重要,有很多数字。一般的模型它碰到数字这些问题它会产生幻觉,它错一个字符也不行,所以如果你是自研模型,可能会针对你金融领域的特殊问题做一些特殊设计可能会做的更好。所以大模型用到垂直领域不是很简单的,简单的去做做微调,或者简单的做做prompt就可以解决好的,这个东西实际是要付出艰苦的智力劳动,像度小满他这个做法是对头的,他必须要有一支队伍,有一支比较高水平的研发队伍来做这件事儿,才能把垂直领域做好。我是以这个东西做一个例子,实际上你到各个垂直领域,如果真要解决垂直领域比较重要的问题,都会面临同样的处理办法,你都需要有一支比较精干的有力的技术团队,才能把这件事儿做好。教育也是一个比较适合大模型处理的领域。这是联合国教科文组织它发了一个报告,它说生成式人工智能在教育中的作用,它来探讨机遇和挑战。这块真是有很大的想象空间。我大概捋了捋,基于大模型的智慧教育和教学实际上是大有可为的,你比如说基于大模型的教育大数据分析。大模型,刚才其实我们从写诗里面就能看到,写诗,诗歌里面其实有很多隐含的模式大模型它都可以学到,比如说押韵、平仄、对仗,它可以学的很好。所以你教育大数据它里面隐含了什么模式,我们人去总结有时候还不一定总结得出来,但是用大模型它可以帮助我们把它分析的比较到位。另外基于大模型来构建大规模课程知识图谱,经验表明也是比以前单纯我们靠人工去构造知识图谱的效果要好很多,它效率也会提高很多。有了知识图谱,我就可以把一门课程的知识结构给它比较精炼的提炼出来,所有课程我都构建成知识图谱,就会把课程之间的关联打通。进一步的,我好比论文库,对图书馆的图书我都建立起知识图谱,建立出一个知识图谱的宇宙,那我对学习和综合运用能力就会大大提高。这里面我基于大模型来构建知识图谱,和以前的做法会有比较大的提升。另外大模型支持的各类课程的智能辅助教学软件,比如说它现在答题能力很强。原来我们比如在慕课里面有些学生做的作业做的对不对,我就给他出选择题,选择题、填空题机器判没有问题,因为慕课的学生人数非常多,一门课有10万人选,10万人学,一交作业10万份作业,我希望很快的给它判出来。以前出题只敢出填空题、选择题,这个机器很快就判。不太敢出主观题,比如你写一篇作文,我来判断这作文写的好不好。人去看,10万篇作文给你你看不过来。但是现在像ChatGPT我来评价你作文写的好不好,它大概齐能做到八九成,基本还是可以,写的不好它给你挑出来,所以主观题老师就敢出了,老师就敢在慕课条件下就敢出了,这是辅助教学。另外跨语言教育,现在大模型的多语能力非常强,比如老外我要学汉语,然后我跨语言,我跟中国的学生交流这都问题不大了,把语言的屏障给打穿了,打通了。另外各类虚拟实验室,我说了像sora这类东西出来,它会在三维的动画方面表现能力就会更强,你去构造虚拟实验室可能就更加便利,等等吧。另外智能助教,问答,我提一些问题让机器回答,学生提各类各样学习中遇到的问题,由机器来生成问答,这如果做的好的话,相当于每个学生都会有一个特别贴心的个人的助教。但是这块要注意我说的幻觉现象,它可能会出错,所以这块也要特别小心。实际上大模型在慕课条件下,完全在线条件下,就会重构我们整个教育体系,在线教育的体系大有可为。当然现在慕课,我注意到像coursera这种平台有很多教像GPT和ChatGPT的课程,大家感兴趣的也可以去学,有很多这种课程。在大模型时代,咱们不断的学习是特别的重要,我刚才讲了,你必须跑过人工智能,你必须往高端去走,否则就有危险,所以必须终身学习。但你如果了解通用人工智能的这些技术,其实还是有很多好的课程可以去学的。下边我举清华我们课题组的一些工作,实际上跟教育都有些关系,我就很快过一下。你看你如果写一首诗,我们这是让ChatGPT写一首诗,叫做探索天空。我让写五律。ChatGPT它写的还不太行。诗写的还不错,比如说它叫探索天空晨翱翔,星辰闪耀迎真诚,云端自由逐风起,城市束缚话尘埃。它五律要五个字,它是七个字,不太对,押韵平仄也不太对,但是意思还可以。然后我们的系统去写,因为这相当于我做了微调了,在垂直领域比它写的好完全是可能的。比如我们系统就会写出来,叫做探索天空处,这个天,空的地方,不是天空,是天,空的地方。主题叫探索天空,我们诗就会写探索天空处,人间不可居,一身犹是客,万里欲何如。日月双轮转,乾坤一局虚,此心无所住,随处是吾庐。机器写的。所以实际上通过这个诗告诉我们,在垂直领域,你如果去用你的数据来训练,它有可能比大模型做的要好,这是完全可以做到的。我们这个系统去写现代诗,它也可以写的有模样。你比如说右边,我们实际上是让它两个字、三个字、四个字、五个字、六个字,按照字数来写,它写的也还不错。写一首短诗,比如说爱情走开,孤独带着记忆游走,留下空白,残留一种温柔。这其实还是有一定的创新性的,孤独带着记忆游走,这其实写的还挺拟人化的,有拟人化的感觉。写诗现在很寻常了,但是说你能不能写的让人惊艳,还是有挑战的。你像OpenAI的4o这个东西,语音识别、语音合成好像前两年大家都做的挺多的了,但是它做到极致,还是会给人不同的感受。写诗很多现在都会写诗,但是你写出来要让人觉得叹为观止的水平还没达到,如果达到了,还是会让大家觉得你这个东西不错,我们这实际上还是有距离的,还是可以有大大的改进空间的。另外它有些新的事儿用于教育就成为可能,比如这是我们的一个系统,我们叫“反向词典”。什么叫“反向词典”?我们一般查的叫正向词典,你比如说我碰到一个词,比如“欢天喜地”,老外他就听不懂,什么叫欢天喜地,他就查词典。什么意思?词典告诉你这是形容特别高兴就叫欢天喜地,他就懂了。这叫正向词典。反向词典是干嘛,就是反过来,我想表达一种情绪,我找不到那个词儿。比如说形容非常开心我用什么词儿呢,反过来找这个词,它会给你推荐词,它就给你推荐比如欢天喜地。这类东西靠大模型,它对句子有比较好的理解,它就会给你做的这个东西非常好,给推荐反向词典。这是我的一个学生做的工作,这个工作在网上还受到了非常多的关注,很多用户都在用,解决他词穷的问题,解决没词儿了的问题。这就是我刚才讲了大模型对语言的界限会打通,你比如说一个老外feel very happy,用中文怎么说呢?它也会给你推荐比如“满心欢喜”“欢天喜地”,会给你各种推荐。也可以打通什么,推荐古今,我推荐个古诗给你呀,这个道理是差不多的。另外我说现在图文是打通的,实际上我们也做一些事情试图用到教育,比如说我们做了一个以图搜诗,利用它现在图文打通的能力。比如说你出去玩,拍右边这个照片,我们系统就会给你推荐古人写的跟这个照片比较贴切的诗,比如说它会推荐“爱此山中人,缥缈如仙子”。你看这个女孩儿在山里面嘛。这个诗是谁写的,是苏轼苏东坡写的。另外它还会给你推荐一句诗,叫“有美一人兮在山中”。这是谁写的,是刘基刘伯温写的。所以实际上在娱乐过程中,你就会去学习我们中国优秀的古代文化,把这个东西打通,我们叫以图搜诗。比如这是我讲课的时候他们拍的一个照片,我去搜什么诗呢,它会搜出来名师益友资讨论,暮史朝经勤讲读。这是谁写的,于谦,这是明朝的民族英雄于谦,就是保卫咱们北京城的于谦写的这一首诗。通过这样,你既使是日常生活,它也会帮助你学习中国的古代文化。另外这个东西用在教育其实还是可以做其他很多,比如图生文,一个照片我来理解它什么意思。比如左边这个图,说这张图片让你联系到哪个成语?我们系统就会想到什么,一叶知秋,这用到教育了。它问说这个东西和中国24节气哪个节气有关?它就会说跟立秋这个节气有关。右边这个图你问它可能是在哪个节日拍的,它会说是中秋节拍的,一段话告诉你。然后你说能用苏轼的诗来描写这幅画吗?它就会说,明月几时有,把酒问青天。所以这块用到教育,它用各种图文联想能力就会对教育有所帮助。等等我们做了一些尝试,这个东西对教育还是有很大的空间的。时间也差不多了,我最后总结一下,ChatGPT的出现,就把一个词带出来了,叫做通用人工智能。通用人工智能是我们做人工智能的这些研究人员的一个理想,也是一个梦想,它太难了。以前我们一般不太敢说这个词儿,但是ChatGPT出来以后,大家觉得通用人工智能好像靠谱了,好像有可能了。我们国家去年也提出来,要重视通用人工智能的发展,要营造创新生态,重视防范风险。这两件事儿都非常重要,一个创新生态,已经成为全球的这么一个最具创新活力的东西。但是它有hallucination,幻觉现象,所以必须重视防范风险。人工智能是发展新质生产力的重要引擎,这是显然的。下一步,我觉得一个重要的任务就是我们应该去研究、研发基于大模型的各类X,各类垂直领域应用。我刚才讲了,金融领域,像度小满的工作就是其中一个非常有意义的尝试。前面还会发生什么,这还是充满悬念。比如这个大模型发展很快,明年会发生什么,这个东西现在真不太好说,不太好判断,所以充满悬念实际上就是充满了不确定性,也就是充满了更大的挑战。最近斯坦福它发了一个叫人工智能指数报告,2024年的,这个报告里面有几幅图片我可以给大家看一看。这是2023年人工智能叫私人的投资,其实就是资本市场,你会看到美国是排第一位的,中国排第二位,英国排第三位,德国第四位。中美之间差别还是很大的,美国这方面投资比中国还是大了很多,比我们国家还是大了很多。另外它这张图对我们其实也很有启发意义,它说值得关注的模型的数量美国有61个,中国是15个,我们也是排老二,和美国比还是有比较大的差距。这实际上是说我们国家人工智能发展还是面临着巨大的挑战,我们应该在这方面进行不懈的努力。基座模型,大模型这是一路要重点发展的。但同时基于大模型发展垂直领域其实更加急迫,更加重要,也特别具有挑战性。这一块我们国家可能有优势,因为我们国家比如实体经济非常发达,在实体经济中应用大模型其实是非常困难的,如果我们解决好这个问题,就有可能在垂直零距应用方面走到世界的前列,这种前景是有的,当然需要我们付出不懈的努力。好,我就讲到这儿,谢谢大家。主持人:好的,感谢孙老师的精彩分享。接下来我们就进入到交流时间,我们从评论区挑选了几个比较有代表性的问题,请孙老师为我们做一个现场的解答。孙老师,第一个问题,相比您前面的分享也是非常落地的一个问题,当然这对我个人也是一直以来的疑惑。目前我们聚焦到国内,国内大模型的产品非常多,但是绝大多数其实现在还是免费提供的状态,您怎么看待大模型未来的商业模式?孙茂松:我觉得首先是这样,首先大模型的基础能力要达到一个相当的水平,然后对拓展商业模式会有直接的作用,所以当务之急可能我们还是要把大模型的能力提上去。其实这一年国内的基础模型的能力上的还是挺快的,跟一年前比应该说是突飞猛进,这块我们再加把劲,有了这个东西,你再去做应用模式、商业模式,可能基础就更加好。当然这两件事儿可以并行不悖,你既使大模型的能力还有一定的缺陷,但是我用到垂直领域,你比如我刚才写诗,到垂直领域里边,你把垂直领域解决好了,它还是有可能探索出一条新的商业模式的。这两件事儿我觉得可以并行不悖的做。主持人:第二个问题,在您看来,三年以后的大模型会发展到什么样的程度?我觉得他这个问题为什么提三年呢,从2016年GPT1出现,我们2020年GPT3出现,到2023年附近其实是我们这一波大模型热潮,其实都是三年左右的维度。那我们从现在再往三年以后,大模型会发展到什么样的程度,您可以帮我们去展望一下。孙茂松:三年之后,我觉得两件事儿吧,一个是通用大模型三年应该还是在会极速的往前发展,大家试图把大模型、大数据、大算力会做到极致。比如说做到人脑的规模,做到人脑参数的规模,这块我觉得三年应该有可能走到这个层次,所以这块在全球范围内应该是会有一个激烈的竞争,把这三个大做到极致,看看通用的大模型它的能力边界、它的极限到底在哪儿,这是一个。另外一个问题,三年我们应该在垂直领域做出一批有显示度的东西,真正对垂直领域有相当影响的东西。这实际上三年时间我觉得是可以预期的,它应该会有一些典型的案例出来。但大模型在各个领域去用,它也不是说对所有领域适用,但是经过三年的摸索,应该会摸索出若干的领域这个东西是有用的,而且有显效的,这是可以期待的。主持人:第三个问题,其实跟孙老师您刚才的分享是比较相关的,哪些岗位您觉得可能以后会被人工智能去替代?作为现在我们普通的打工人,或者说一些学生,我们应该具备什么样的能力,才能在大模型时代去提升竞争力?同时您也可以从人工智能对未来教育影响的方面,其实这也是您刚才讲过的,也可以帮我们去做一些简单的总结。孙茂松:其实刚才已经说了,它只要人工智能比较擅长的一些领域,我们对人的压力就大。比如它写作,比如写一些文案它比较擅长,但是你在这个方向工作的人士就得小心,压力比较大,所以你就必须比人工智能做的要好。但是哪个领域如果人工智能涉及不到,好比说我是做非遗的,我就靠手工来做,所以人工智能影响不到你,这你就比较安全。你和数字世界越接近,可能你的压力就越大。所以这个东西你自己就去判断,我刚才讲了,它生成能力很强,理解也不错,但是它有幻觉。那个模式是通行的,你只要比照那个东西,你就知道我自己的位置在什么地方。比如写诗、写文案、作画,跟这个相关的可能都要小心一点。但是我是做手工艺的,问题就不大。主持人:在具身智能到一定程度之前,可能还是非常安全的。孙茂松:对,但是你好比做非遗这些产品,它人工智能会给你启发一些创意,你把它作为工具来用。比如你某种东西,我想创造适合某种年轻人的手工艺品,你把这个信息给它,最后机器给你产生一些创意,这个时候虽然你是手工的,它好像不影响你,但是作为一个工具,你还是可以用它来提高你的创意能力还是有帮助的。主持人:那我们今天时间的关系,我们这个交流的环节就到这里,我们再次感谢孙老师给我们带来这趟精彩的大模型公开课。清华大学人工智能国际治理研究院(Institute for AI International Governance, Tsinghua University,THU I-AIIG)是2020年4月由清华大学成立的校级科研机构。依托清华大学在人工智能与国际治理方面的已有积累和跨学科优势,研究院面向人工智能国际治理重大理论问题及政策需求开展研究,致力于提升清华在该领域的全球学术影响力和政策引领作用,为中国积极参与人工智能国际治理提供智力支撑。
新浪微博:@清华大学人工智能国际治理研究院
微信视频号:THU-AIIG
Bilibili:清华大学AIIG
来源 | 本文转载自钛媒体AGI,点击“阅读原文”获取更多内容
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢