henry 发自 凹非寺
量子位 | 公众号 QbitAI

GPT-5,你这家伙!

究竟还有什么事是我不知道的?

在一篇最新论文中,研究人员让它挑战了5个尚未解决的优化猜想。

结果它居然解出了其中3个!

更令人吃惊的是,其中有一道题,它甚至给出了与研究者预期完全不同的、同样有效的证明方案。

和国际数学奥林匹克(IMO)那些为“人类天才高中生”准备的题目不同,这次的测试题需要博士水平的研究者花上几天才能完成。

在论文里,研究者们还特意“挑衅”陶哲轩对大语言模型数学能力的印象——

它可不是“笨蛋”研究生,而是能展现出独创性的“聪明”博士生。

前微软研究副总裁、现OpenAI科学家Sebastien Bubeck表示:

这意味着GPT-5能够解决一些真正的开放性数学问题。

接下来,就让我们看看,这位AI数学天才是怎么炼成的。

“哥德尔”测试

如上所述,GPT-5这次挑战的并不是奥赛题,而是高等数学里的简单猜想。

求解这类问题不仅需要算术能力,还需要相当强的数学背景和逻辑推理能力。

研究人员把他们的测试称为:哥德尔测试

哥德尔测试里的问题需要人自己动脑、经过训练才能解决,而且在现有文献中找不到现成答案。

(注:这里哥德尔测试与哥德尔不完全性定理基本没啥关系)

在这篇论文中,总共5个问题基本都来自组合数学(Combinatorial mathematics)的一个子领域——

子模最大化(submodular maximization)

什么是子模最大化呢?

简单来说,子模函数的核心在于边际收益递减。

假设有一个函数 f(S),输入是一个集合S,输出是一个数值。

当集合越来越大时,增加一个新元素带来的“增量收益”会越来越小。

而子模最大化,就是在给定的约束条件下,选择一个集合,使得总收益 f(S)尽可能最大。

举例来说,这就好像在社媒转发视频,第一个转发的用户往往能带来很多观看量(传播给更多的人)。

但随着转发的人越来越多,每增加一个人的额外效果就越来越小(因为他的好友大部分已经看过了视频)。

所以,关键是选出一批用户(集合S),好让总传播量最大。

这就是子模最大化在实际问题中的优化目标,在测试中,GPT-5所应对的就是类似的优化问题。

GPT-5五中三

那么,GPT-5在这些猜想上的表现如何呢?

在五道测试题中,研究者给出最小化描述和参考文献,没有提供解题提示,让模型自主生成解答,测试其数学推理能力。

总的结果如下:

  • 当问题有单一、直接的推理路径时,GPT-5表现良好。在五道题中,前三道题的证明接近正确。

  • 对于第二题,GPT-5推导出的新近似证明既否定了原始猜想,又给出了有效解法

  • GPT-5对已知证明的改写通常足够,但略显表面化:它倾向于跳过未变的步骤,并严格模仿原始结构,而非寻求更自然的替代方法,这类似人类的偷懒行为。

  • GPT-5在第四题和第五题上均未成功,这两道题需要结合至少2个不同文献里的洞见,这种综合推理能力似乎是GPT-5的主要局限之一

  • 在第五题上,GPT-5识别出了研究团队心中所想的算法,但未能正确分析。

  • 相比早期模型,GPT-5在基础数学能力上显示出明显提升(至少在组合优化领域如此),并偶尔展现独创性。

  • 提示词对性能影响显著。当被要求提供完整证明时,GPT-5更倾向于保留中间步骤而非跳过,从而生成更完整和自洽的解答。

  • 第四题和第五题的错误证明最初看似合理且令人信服,但仔细检查后发现存在深层次缺陷。这凸显了前沿模型在数学推理中的核心局限:输出可能表面上正确,但本质上错误

第一题:最大化“单调 + 非单调”的子模函数

在第一个题目中,GPT-5 的任务是最大化一个由单调DR-子模函数和非单调DR-子模函数组成的目标函数,约束条件是一个下闭凸集合。

研究者希望它不仅给出解,还要提供可量化的性能保证,说明算法输出离理论最优解有多近,并要求提供严格的数学证明。

为了完成这个任务,GPT-5只能依靠对问题的理解和参考文献,自主生成解答,没有任何额外提示。

具体的prompt如下:

对此,GPT-5每步沿最“贪心”的方向微调解,然后用函数的结构保证最终结果接近最优。

对于GPT-5的回答,研究人员表示虽然GPT-5没有设计全新的方法,但它紧贴参考资料,给出了总体正确的证明。

第二题:子模函数最大化的双重标准(bicriteria)算法

在这道题里:

  • GPT-5要最大化一个单调子模函数。
  • 同时要满足一个约束条件(p-system)。

也就是说,GPT-5面对的任务是:在更复杂的组合约束下,找到既能最大化函数又尽量满足约束的解。

研究人员给GPT-5的提示里附上了两篇关于子模最大化的双重标准算法和p-系统约束下非双重标准子模优化的论文。

具体的prompt如下:

GPT-5解题过程如下:

在第二题中,GPT-5给出的答案比研究者最初猜想的更合理,因为随着约束复杂度增加(p 值变大),问题确实会更难。

整体来说,GPT-5 的推导基本正确,但有两个小问题:

  • 在某个关键不等式里,它多写了一步,其实没必要,这让结果看起来有些复杂,但核心思路没错。
  • 当约束最简单(p=1)时,GPT-5忘记了某个参数的精确值,只给出了一个上界。

换句话说,它没完全注意到在特例下可以算出更准确的数字,但总体逻辑还是对的。

总的来说,GPT-5能理解问题、给出合理的推导,偶尔会有些“懒”或者忽略细节,但整体表现已经非常接近研究者预期。

第三题:在凸集合约束下最大化弱DR-子模函数

第三题要求:在凸集合约束下,最大化一个具有这种放宽性质的连续单调函数。

prompt如下:

研究人员猜想:用文献中类似Frank-Wolfe的算法来求解这个问题,可以保证得到相应的近似解。

GPT-5解题过程如下:

总体来看,GPT-5 的回答基本正确,但有些小问题。

之后,研究团队又让GPT-5生成了一个新的证明版本。

在新版本的回答中,GPT-5的回答更详细,几乎是从头再来。

总体来看,GPT-5回答正确性较高,但仍有小细节和可读性问题。

第四题:在基数约束下最大化部分单调的弱子模函数

第四个猜想是将非单调弱子模函数、m-单调性的放宽结合起来,研究弱子模且m-单调的集合函数最大化问题。

prompt如下:

研究人员假设:可以利用函数的m-单调性,对论文证明中使用的变量的取值得到新的界。

这些新的界在m>0时应优于论文中给出的界,并将它们代入同一论文的定理中,从而可以得到改进后的结果。

GPT-5的解题过程如下:

在这道题中,GPT-5并没有真正给出这个问题的结果,它只是把已知的东西复述了一遍。

后续,研究者又让GPT-5重新回答,以得到一个更好结果。

不过,在后续的回答中,GPT-5的表现依旧差劲。

在这道题上,GPT-5翻车了。

第五题:在Matroid交约束下最大化单调弱子模函数

最后一个猜想是关于在两个matroid约束下最大化单调弱子模函数的问题。

研究人员假设,该论文的算法和分析方法应该可以很容易地扩展到两个matroid约束。

prompt如下:

GPT-5解题过程如下(部分):

在这道题上,GPT-5的回答在逻辑上和细节上都不可靠,输出结果基本不可用。

最后,值得一提的是,在GPT-5刚发布时,它就被拿来测试过凸优化的问题并且成功。

那么,你看好GPT在数学上更进一步吗?

参考链接

[1]https://x.com/SebastienBubeck/status/1970875019803910478

[2]https://x.com/VraserX/status/1970902050931159184

一键三连「点赞」「转发」「小心心」

欢迎在评论区留下你的想法!

—  —


🎡 量子位智库AI100季度榜单征集中!征集截至10月10日。欢迎提名2025年Q3「AI 100」双榜单产品~ 

🙋‍♀️ 点击链接填写:https://wj.qq.com/s2/23045758/29fb/ 或扫描下方二维码填报

图片

一键关注 👇 点亮星标

科技前沿进展每日见

内容中包含的图片若涉及版权问题,请及时与我们联系删除