刚刚!Qwen3深夜升级,碾压Kimi K2和DeepSeek V3
刚刚,Qwen3迎来惊喜升级![庆祝][庆祝][庆祝]\x0a\x0a通义千问更新了旗舰版Qwen3模型,推出Qwen3-235B-A22B-FP8非思考模式(Non-thinking)的更新版本,命名为:\x0a\x0aQwen3-235B-A22B-Instruct-2507-FP8。\x0a\x0a新的Qwen3模型,通用能力显著提升,包括指令遵循、逻辑推理、文本理解、数学、科学、编程及工具使用等方面。\x0a\x0a在GQPA(知识)、AIME25(数学)、LiveCodeBench(编程)、Arena-Hard(人类偏好对齐)、BFCL(Agent能力)等众多测评中表现出色,超过Kimi-K2、DeepSeek-V3等顶级开源模型以及Claude-Opus4-Non-thinking等领先闭源模型。\x0a\x0a此外,刚刚更新的Qwen3模型,还增强了以下关键性能:\x0a· 在多语言的长尾知识覆盖方面,模型取得显著进步。\x0a· 在主观及开放性任务中,模型显著增强了对用户偏好的契合能力,能够提供更有用的回复,生成更高质量的文本。\x0a· 长文本提升到256K,上下文理解能力进一步增强。\x0a\x0a为获得最佳性能,阿里也贴心地为大家准备了推荐配置:\x0a· 采样参数:Temperature=0.7、TopP=0.8、TopK=20、MinP=0 · 合适的输出长度:输出长度为16,384Token,这对于指令模型来说已经足够\x0a· 规范输出格式:\x0a 数学问题:在提示词中加入「请一步一步推理,并将最终答案放入\x5cboxed{}中。」\x0a 多项选择题:在提示词中添加以下JSON结构以规范回复格式:「请在answer字段中仅填写选项字母,例如:\x22answer\x22: \x22C\x22。」\x0a\x0a注意:此模型仅支持非思考模式,在输出中不会生成\x26lt;think\x26gt;\x26lt;/think\x26gt;块。同时,不再需要指定enable_thinking=False。\x0a\x0a目前,Qwen3新模型已在魔搭社区和Hugging Face上开源:\x0ahttps://huggingface.co/Qwen/Qwen3-235B-A22B-Instruct-2507-FP8
内容中包含的图片若涉及版权问题,请及时与我们联系删除
评论
沙发等你来抢