-
Qwen3 小升级即 SOTA,开源大模型王座快变中国内部赛了
文章详细报道了阿里云 Qwen3 大模型最新版本的发布,该版本采用 MoE 架构,总参数量 235B,激活参数 22B,并在基准测试中超越了 Kimi K2 和 DeepSeek-V3。新版 Qwen3 不再采用混合思维模式,而是分别训练 Instruct 和 Thinking 模型,显著提升了通用能力、多语言长尾知识覆盖、用户偏好符合度以及 256K 长上下文理解能力。文章还指出,随着 Llam…- 0
- 0
-
Qwen3-Coder:480B 参数的超强“代码特工”
文章详细介绍了通义大模型最新开源的 Qwen3-Coder,特别是其旗舰版本 Qwen3-Coder-480B-A35B-Instruct。该模型是拥有 480B 参数、35B 有效参数的 MoE(混合专家)模型,在代理式编程、浏览器智能操作和基础编码任务上均达到开源模型 SOTA。文章深入阐述了模型在预训练阶段的数据扩展(7.5T 高质量代码)、上下文扩展(原生 256K,最高 1M)以及合成数…- 0
- 0
-
Qwen3 新模型 Coder:性能、价格、可用性|全详解,包括官方没说的
文章深入剖析了阿里云最新发布的开源代码大模型 Qwen3-Coder,该模型采用 MoE 架构,拥有 480B 总参数和 35B 激活参数,旨在提供强大的代码生成与理解能力。文章从性能、价格和可用性三个核心维度进行了详细阐述。性能方面,Qwen3-Coder 在 Agentic Coding、Agentic Browser-Use 和 Agentic Tool-Use 等多个基准测试中表现出色,取…- 0
- 0
-
用 Macbook 微调 Qwen3!手把手教你用微调给 Qwen 起一个新名字
文章详细介绍了如何在 MacBook 上利用苹果 MLX 深度学习框架,对 Qwen3 大模型进行 LoRA 微调。首先,文章简要介绍了 MLX 框架及其专为 Apple Silicon 优化的优势,并指出其在性能上优于 PyTorch 的 MPS 后端。接着,手把手指导读者进行环境安装、数据集准备(使用 ModelScope 上的“self-cognition”数据集进行模型自我认知微调,并提供…- 0
- 0
-
保姆级教程:两步搭出 Qwen3 Coder 满血 Claude Code 版,OpenAI CodeX 睡桥洞去吧
文章围绕最新开源的 Qwen3 Coder 模型,提供了一份详尽的集成教程。首先介绍了 Qwen3 Coder 的核心特性,如其 480B 总参数、35B 激活参数、7.5T 训练数据(其中 70%为代码),以及 256k 上下文长度(可扩展至 1M),并在编程、浏览器使用和工具调用方面取得了开源 SOTA。随后,文章重点阐述了如何通过阿里云百炼获取 API Key,并以“保姆级”方式指导用户将 …- 0
- 0
-
Qwen3 重磅开源!
文章主要介绍了 Qwen 系列全新一代的混合推理模型 Qwen3 的开源信息。Qwen3 在 GPQA、AIME24/25、LiveCodeBench 等多个权威评测中表现出极具竞争力的结果。通过引入创新的 MOE (混合专家) 架构,Qwen3 在效果上媲美上一代超大规模 Dense 模型的同时,效率显著提升,降低了计算成本。Qwen3 融合了推理与非推理能力,在逻辑分析和创意生成等任务中表现卓…- 0
- 0
Qwen3
幸运之星正在降临...
点击领取今天的签到奖励!
恭喜!您今天获得了{{mission.data.mission.credit}}积分
我的优惠劵
-
✈优惠劵使用时效:无法使用使用时效:
之前
使用时效:永久有效优惠劵ID:×
没有优惠劵可用!



