在过去的几个月里,人们已经了解到关于大型语言模型 (LLM) 的两件事——为 ChatGPT 和 Dall·E 等程序提供动力的计算引擎。首先,这些模型似乎具有人类的智慧和创造力。它们对书面问题提供详细而清晰的回答,或仅从几句文字中生成引人入胜的图像。
第二件事是它们不值得信任。它们有时会做出不合逻辑的陈述,或者自信地将谎言说成事实。
IBM Research 的 Jason Rute 说:「它们会谈论独角兽,但随后忘记了它们只有一只角,或者它们会告诉你一个故事,然后从头到尾更改细节。」
这些不仅仅是错误——它们表明 LLM 难以认识到它们的错误,这限制了它们的表现。这个问题不是人工智能系统固有的。基于强化学习技术的机器学习模型允许计算机从错误中学习,从而成为国际象棋和围棋等游戏的天才。虽然这些模型的能力通常更为有限,但它们代表了 LLM 尚未掌握的一种学习方式。
「我们不想创建一种只会像人一样说话的语言模型,」Google AI 的吴宇怀(Yuhuai (Tony) Wu)说。「我们希望它明白它在说什么。」
吴宇怀是最近两篇论文的合著者,这些论文提出了实现这一目标的方法。乍一看,它们是关于一个非常具体的应用:训练 AI 系统进行数学运算。
第一篇论文描述了教授 LLM 将普通数学语句翻译成计算机可以运行和检查的正式代码。
论文地址:https://arxiv.org/abs/2205.12615
第二篇是训练 LLM 不仅要理解自然语言数学问题,还要使用一个名为 Minerva 的系统实际解决这些问题。
论文地址:https://arxiv.org/abs/2206.14858
这些论文共同提出了未来人工智能设计的形态,LLM 可以通过数学思维学习推理。
「你有深度学习、强化学习、AlphaGo 和现在的语言模型等东西,」班加罗尔印度科学学院(Indian Institute of Science)从事 AI 数学系统研究的数学家 Siddhartha Gadgil 说。「这项技术正朝着许多不同的方向发展,它们都可以协同工作。」
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢