近日,曾开发出举世瞩目的 AlphaGo 的 DeepMind,在 ArXiv 上发表了一篇文章,名为:

Meaning without reference in large language models

文中提到,大参数规模的语言模型是已经具备了部分类人智能的,但由于它们仅仅接受了纯文本数据的训练,所以其能力也没有得到充分的发挥。

文中举出了大量的例子,试图证明 LLMs,或其他以 transformers 为主要结构的大模型,已经具备了和人类表现类似的智能能力。

DeepMind 一直是通用人工智能(AGI)探索路上的先行者,今年上半年,他们也曾提出了 Gato,在604个不同的任务上都取得了不错的表现,大有 AGI 模型之势。

在笔者看来,其至少证明了,当模型的容量足够大的时候,其的确能够容纳合格地完成不同的窄领域任务所需的知识,更像是给我们展现了通用agent的可行性,但真的说是智能的话,似乎同笔者的认知有所偏差。

论文标题:
Meaning without reference in large language models

论文地址:
https://arxiv.org/abs/2208.02957

 

阅读详情

内容中包含的图片若涉及版权问题,请及时与我们联系删除