- 简介大语言模型(LLMs)在推动科学发现方面已展现出强大潜力。然而,它们是否具备基础性创新的能力,目前仍是一个悬而未决的问题。本研究聚焦于基础性创新的一项先决条件:LLMs能否重新发明计算机科学中的基础算法?为此,我们提出了一种“遗忘—再发明”(Unlearn-and-Reinvent)流程:首先通过LLM遗忘技术,从模型预训练知识中系统性地移除某一特定基础算法(例如迪杰斯特拉算法或欧几里得算法),随后在受控环境中检验该模型是否能够独立重新推导出该算法。为实现高效、可靠的遗忘效果,我们采用一种基于广义近端策略优化(GRPO)的在线策略(on-policy)遗忘方法。实验覆盖10种目标算法、3个性能强劲的开源权重模型,以及3个不同抽象程度的提示等级(hint levels)。结果表明:(1)性能最强的模型Qwen3-4B-Thinking-2507在无任何提示的情况下成功重新发明了50%的目标算法;在第一级提示(较粗粒度的高层提示)下,成功率提升至70%;在第二级提示(更具体、更具引导性的提示)下,进一步提升至90%;(2)少量高层提示即可显著提升再发明成功率,但即便是详尽到每一步骤的提示,对某些高度复杂的算法(如Strassen矩阵乘法算法)依然失效;(3)在测试阶段引入强化学习机制后,模型得以在第二级提示条件下成功完成Strassen算法的再发明。通过对模型输出推理轨迹的深入分析及消融实验,我们发现:再发明阶段所采用的生成式验证器(generative verifier)在维持模型持续、稳健的推理能力方面发挥着关键作用,有效避免了推理过程中出现的“思维坍缩”(thought collapse)现象。上述发现既揭示了LLMs在创新性思维方面所蕴含的潜力,也清晰刻画了其当前能力的边界与局限。
-
- 图表
- 解决问题论文探讨大型语言模型(LLMs)是否具备基础创新能力,特别是能否在被系统性‘遗忘’某项经典算法后,重新独立推导出该算法——即验证LLM是否拥有类似人类科学家的原理级重构能力。这是一个新颖且具有哲学与工程双重意义的问题,超越了传统评估范式(如问答、微调或提示工程),直指AI创造力的本质边界。
- 关键思路提出'Unlearn-and-Reinvent'(遗忘-再创造)范式:先用基于GRPO的on-policy算法级定向遗忘技术,从预训练知识中精准移除特定算法(如Dijkstra或Euclid);再在无监督/弱监督控制环境下,通过生成式验证器(generative verifier)引导模型进行自主推理与验证,以测试其原理重建能力。该思路首次将‘可控知识擦除’与‘受约束的创造性推理’耦合,区别于现有黑盒提示增强或RLHF微调方法。
- 其它亮点实验覆盖10个经典算法(含Strassen矩阵乘法)、3个强开源模型(Qwen3-4B-Thinking等)、3级结构化提示(无提示/高层目标提示/分解步骤提示);发现高阶提示显著提升成功率(Qwen3达90%),但纯步骤提示对复杂算法仍失效;引入test-time RL实现Strassen算法的成功再创造;关键发现生成式验证器可有效抑制‘thought collapse’(思维坍缩);全文方法完全基于公开模型与合成任务,无需私有数据;代码与提示模板已开源(GitHub链接见论文附录);未来方向包括跨算法知识迁移建模、遗忘鲁棒性量化、以及将该范式扩展至数学定理与物理定律再发现。
- 1. 'Can Language Models Learn Like Humans? A Study on Algorithmic Reasoning' (ICML 2023); 2. 'Unlearning in Large Language Models: A Survey and Benchmark' (NeurIPS 2023 Workshop); 3. 'Reasoning Chains as Latent Variables for Self-Correction' (ACL 2024); 4. 'The Limits of In-Context Algorithm Learning in Transformers' (ICLR 2024); 5. 'Teaching Models to Invent: Reinventing Sorting from Scratch with Program Synthesis' (EMNLP 2023)
NEW
提问交流
提交问题,平台邀请作者,轻松获得权威解答~
向作者提问

提问交流