-
Qwen3-Coder:480B 参数的超强“代码特工”
文章详细介绍了通义大模型最新开源的 Qwen3-Coder,特别是其旗舰版本 Qwen3-Coder-480B-A35B-Instruct。该模型是拥有 480B 参数、35B 有效参数的 MoE(混合专家)模型,在代理式编程、浏览器智能操作和基础编码任务上均达到开源模型 SOTA。文章深入阐述了模型在预训练阶段的数据扩展(7.5T 高质量代码)、上下文扩展(原生 256K,最高 1M)以及合成数…- 0
- 0
-
DeepSeek-V3 深夜惊爆上新!代码数学飙升剑指 GPT-5,一台 Mac 可跑
文章报道了 DeepSeek V3 最新版本 DeepSeek-V3-0324 的发布及其性能提升。该模型在代码和数学推理能力上均有显著提升,甚至在代码方面可以与 Claude 3.7 相媲美。尤其在前端开发等特定任务中,DeepSeek V3 展现出超越其他模型的潜力。此外,DeepSeek V3 采用 MIT 开源协议,允许自由修改和商业应用。该模型可在消费级设备上运行,如苹果 M3 Ultr…- 0
- 0
-
狙击 Gemini 3!OpenAI 发布 GPT-5.1-Codex-Max
文章详细介绍了 OpenAI 新发布的 GPT-5.1-Codex-Max 模型,旨在应对 Google Gemini 3 的竞争。该模型的核心亮点在于通过原生压缩技术,突破了传统上下文窗口限制,能够实现跨越数百万 token 的超 24 小时连续工作。在软件工程任务中,GPT-5.1-Codex-Max 在 METR 指标上达到新 SOTA,并在 SWE-bench Verified 测试中表现…- 0
- 0
-
保姆级教程:两步搭出 Qwen3 Coder 满血 Claude Code 版,OpenAI CodeX 睡桥洞去吧
文章围绕最新开源的 Qwen3 Coder 模型,提供了一份详尽的集成教程。首先介绍了 Qwen3 Coder 的核心特性,如其 480B 总参数、35B 激活参数、7.5T 训练数据(其中 70%为代码),以及 256k 上下文长度(可扩展至 1M),并在编程、浏览器使用和工具调用方面取得了开源 SOTA。随后,文章重点阐述了如何通过阿里云百炼获取 API Key,并以“保姆级”方式指导用户将 …- 0
- 0
代码模型
❯
个人中心
购物车
优惠劵
今日签到
有新私信
私信列表
搜索
扫码打开当前页
返回顶部
幸运之星正在降临...
点击领取今天的签到奖励!
恭喜!您今天获得了{{mission.data.mission.credit}}积分
我的优惠劵
-
✈优惠劵使用时效:无法使用使用时效:
之前
使用时效:永久有效优惠劵ID:×
没有优惠劵可用!



