开源 Qwen 凌晨暴击闭源 Claude!刷新 AI 编程 SOTA,支持 1M 上下文

文章报道了阿里通义团队开源 Qwen3-Coder 编程大模型的重要进展。该模型在 AI 编程领域取得 SOTA(State-of-the-Art)表现,不仅超越了开源模型如 DeepSeek V3 和 Kimi K2,甚至在某些指标上超越了闭源的业界标杆 Claude Sonnet 4。Qwen3-Coder 是一款 450B 的 MoE 模型,激活参数 35B,原生支持 256K 上下文,并可通过 YaRN 扩展至 1M。文章强调其开源免费特性,为开发者提供了经济高效的替代方案。技术细节方面,Qwen3-Coder 在预训练阶段通过数据扩展、上下文扩展和合成数据扩展,使用了 7.5Ttokens 的训练数据(70%为代码数据)。后训练阶段,引入了 Scaling Code RL 和 Scaling Long-Horizon RL,显著提升了代码执行成功率和多轮交互表现。文章还通过动图展示了模型在生成可视化动画、3D 地球、天气卡片、交互游戏以及简历和扫雷游戏等方面的强大能力。最后提供了官网、命令行工具和 API 等多种试用途径,并指出其遵循 Apache License Version 2.0,商用友好,预示着开源编程 Agent 的重大飞跃。


闻乐 鱼羊 发自 凹非寺

量子位 | 公众号 QbitAI

编程Agent王座,国产开源模型拿下了!

就在刚刚,阿里通义大模型团队开源Qwen3-Coder,直接刷新AI编程SOTA——

不仅在开源界超过DeepSeek V3和Kimi K2,连业界标杆、闭源的Claude Sonnet 4都比下去了。

开源Qwen凌晨暴击闭源Claude!刷新AI编程SOTA,支持1M上下文

网友当即实测了一把小球弹跳,效果是酱婶的:

开源Qwen凌晨暴击闭源Claude!刷新AI编程SOTA,支持1M上下文

效果之强,甚至引来惊呼:简直改变游戏规则。

开源Qwen凌晨暴击闭源Claude!刷新AI编程SOTA,支持1M上下文

毕竟,这可是开源免费的!

现在大家不用再每月花200刀买Claude Code了!

开源Qwen凌晨暴击闭源Claude!刷新AI编程SOTA,支持1M上下文

Qwen3-Coder包括多个尺寸,其中最强版本Qwen3-Coder-480B-A35B-Instruct是450B的MoE模型,激活参数为35B

原生支持256K上下文,还可以通过YaRN扩展到1M长度。

开源Qwen凌晨暴击闭源Claude!刷新AI编程SOTA,支持1M上下文

命令行版Qwen也同步登场:

通义团队基于Gemini Code,进行了prompt和工具调用协议适配,二次开发并开源命令行工具Qwen Code

嗯,这年头没个CLI都不好意思说自己是编程Agent了(doge)

Qwen3-Coder具体表现如何,还是直接眼见为实。

基本上是,使用简单的语言就能得到惊喜的体验:

比如一句话实现用p5js创建多彩的可交互动画。

开源Qwen凌晨暴击闭源Claude!刷新AI编程SOTA,支持1M上下文

3D地球可视化,分分钟得到一个电子地球仪。

开源Qwen凌晨暴击闭源Claude!刷新AI编程SOTA,支持1M上下文

还能做出动态的天气卡片。

开源Qwen凌晨暴击闭源Claude!刷新AI编程SOTA,支持1M上下文

可交互的小游戏也能轻松拿捏。

开源Qwen凌晨暴击闭源Claude!刷新AI编程SOTA,支持1M上下文

我们也简单实测了一波,先来个最实用的功能——做简历。

提示词是:生成一个可编辑的简历模板。

开源Qwen凌晨暴击闭源Claude!刷新AI编程SOTA,支持1M上下文

写个扫雷游戏更是轻轻松松,即写即玩~

提示词:生成一个扫雷游戏。

开源Qwen凌晨暴击闭源Claude!刷新AI编程SOTA,支持1M上下文

效果之外,值得关注的是,这一次通义团队同样公布了从预训练到后训练的不少技术细节。

预训练阶段,Qwen3-Coder主要还是从不同角度进行Scaling,以提升模型能力。

包括数据扩展、上下文扩展、合成数据扩展

其训练数据的规模达到7.5Ttokens,其中70%为代码数据,在保证通用与数学能力的同时提高了编程能力。

同时,原生支持256K上下文长度,借助YaRN技术可以扩展至1M,适配仓库级和动态数据处理。

在训练中还利用Qwen2.5-Coder对低质量数据进行了清洗与重写,显著提升了整体数据的质量。

与当前热衷于竞赛类编程的模型不同,Qwen团队认为代码任务天然适合执行驱动的大规模强化学习。

因此在后训练阶段,他们一方面通过Scaling Code RL在丰富、真实的代码任务上扩展训练,自动生成多样化测试用例,提高了代码执行的成功率。

开源Qwen凌晨暴击闭源Claude!刷新AI编程SOTA,支持1M上下文

另一方面,引入了Scaling Long-Horizon RL,依托阿里云基础设施构建可以同时运行20000个独立环境的系统,让模型在多轮交互中表现优异,尤其是在SWE-bench Verified上实现了开源模型SOTA的效果。

开源Qwen凌晨暴击闭源Claude!刷新AI编程SOTA,支持1M上下文

看到这里,你是不是也摩拳擦掌想要一试Qwen3-Coder的真实实力了?

帮大家指个路:

  • 最简单的,可以直接在Qwen官网体验;
  • 命令行安装Qwen Code,支持OpenAI SDK调用LLM;
  • 在阿里云百炼平台申请API,Claude Code、Cline等编程工具都能搭配起来用。

值得一提的是,Qwen3-Coder依然遵循的是Apache License Version 2.0,商用友好。

反正开源嘛,主动权已经交到了各位开发者手里~

而这也是Qwen此番发布,引得网友刷屏转发的关键所在:

Qwen3-Coder看起来是开源编程Agent的一次重大飞越。

开源Qwen凌晨暴击闭源Claude!刷新AI编程SOTA,支持1M上下文

现在是比肩,超越还会远吗?

开源Qwen凌晨暴击闭源Claude!刷新AI编程SOTA,支持1M上下文

而更令人兴奋的是,在开源这条路上,中国模型们当之无愧地正走在最前列。

官网:
https://chat.qwen.ai/
项目地址:
https://github.com/QwenLM/qwen-code
参考链接:
https://mp.weixin.qq.com/s/CArpTOknOQC5O90Wgih3SA

— 完 —

AI 前线

Claude Code:增强自主性,赋能开发者

2026-1-3 2:08:14

AI 前线

Notion CEO Ivan Zhao:好的 AI 产品,做到 7.5 分就够了

2026-1-3 2:08:16

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索