- 简介我们推出Olmo 3,这是一系列最先进的、完全开源的语言模型,涵盖70亿(7B)和320亿(32B)参数两个规模。Olmo 3 模型的设计目标是实现长上下文推理、函数调用、代码生成、指令遵循、通用对话以及知识回忆能力。本次发布包含了完整的模型构建流程,即该系列模型的全生命周期,涵盖构建过程中使用的各个阶段、检查点、数据点以及所有依赖项。我们的旗舰模型 Olmo 3 Think 32B 是迄今为止发布的最强的完全开源“思考型”模型。
-
- 图表
- 解决问题论文旨在解决构建高性能、完全开源的语言模型的问题,特别是在长上下文推理、函数调用、代码生成、指令遵循和知识回忆等关键能力上的表现。当前大多数先进语言模型(如GPT系列)并非完全开源,限制了研究社区的可复现性和进一步创新。Olmo 3试图验证:一个从数据到训练全流程完全开放的模型,是否能在7B和32B参数规模上达到最先进的性能,尤其是在‘思考型’任务(如复杂推理)中。
- 关键思路Olmo 3的核心思路是‘全生命周期开源’(full lifecycle openness),不仅发布模型权重,还公开训练过程中的每一个检查点、数据点、训练脚本、依赖项和数据处理流程。这种透明性使得研究者可以完整复现并深入分析模型行为。其旗舰模型Olmo 3 Think 32B专门优化了‘思维链’(chain-of-thought)推理能力,通过高质量的长上下文数据和强化学习对齐技术提升复杂任务表现,是目前最强的完全开源‘思考模型’。
- 其它亮点亮点包括:1)发布7B和32B两个规模的模型,覆盖广泛应用场景;2)支持长上下文和函数调用,适用于实际AI代理任务;3)实验设计强调可复现性,使用公开数据集(如The Pile、RefinedWeb及自建高质量推理数据)进行训练与评估;4)代码、训练日志、数据采样策略全部开源,极大促进社区研究;5)在多个基准(如MMLU、HumanEval、GSM8K)上达到或超越同规模闭源模型表现。值得深入的方向包括基于其开放数据流程改进数据质量筛选机制,以及在其基础上开发更高效的推理对齐方法。
- 1. Llama 3: Open and Efficient Foundation Language Models 2. Falcon-180B: Closing the Gap with Proprietary LLMs 3. StarCoder2: An Open Large Language Model for Code with Rich Infilling Capabilities 4. Mistral 7B v0.3: A Sparse Mixture-of-Experts Model with Full Tool-Use Capabilities 5. OpenChat: Training LLMs with Reinforcement Learning from User Feedback
NEW
提问交流
提交问题,平台邀请作者,轻松获得权威解答~
向作者提问

提问交流