智谱旗舰模型 GLM-4.6 上线,代码能力全面进阶

文章宣布了智谱最新旗舰代码模型 GLM-4.6 的上线,强调其在代码能力上的全面进阶,较 GLM-4.5 提升 27%。GLM-4.6 在高级编码、长上下文处理(200K)、推理、搜索和写作能力方面均有提升,并在公开基准测试和真实编程任务中表现优异,部分榜单对齐 Claude Sonnet 4,被誉为国内最佳代码模型。文章还指出 GLM-4.6 在平均 token 消耗上比上一代节省 30%以上,并首次在寒武纪和摩尔线程等国产芯片上实现 FP8+Int4 混合量化部署,为国产芯片在大模型本地化运行开创了可行路径。智谱同步升级了 GLM Coding Plan,提供个人和企业版套餐,并公开了部分测试数据以供业界验证。




src="https://api.eyabc.cn/api/picture/scenery/?k=9f7c7181&u=https%3A%2F%2Fmmbiz.qpic.cn%2Fmmbiz_jpg%2FUBWAWibiaa4jcHY3SlFa6DgbW6wicWgn9aDnOBOMc4H5MG29YmOJuicibj5GNRE4Dldz1Rt5sYt3bHqqmNxggjM7tiaQ%2F0%3Fwx_fmt%3Djpeg">

在AGI的探索中,我们再次突破大模型的能力边界。

作为GLM系列的最新版本,GLM-4.6是我们最强的代码Coding模型(较GLM-4.5提升27%)。在真实编程、长上下文处理、推理能力、信息搜索、写作能力与智能体应用等多个方面实现全面提升。如下:

  • 高级编码能力在公开基准与真实编程任务中,GLM-4.6的代码能力对齐Claude Sonnet 4,是国内已知的最好的Coding模型。
  • 上下文长度上下文窗口由128K→200K适应更长的代码和智能体任务。
  • 推理能力推理能力提升,并支持在推理过程中调用工具
  • 搜索能力增强模型的工具调用和搜索智能体,在智能体框架中表现更好。
  • 写作能力在文风、可读性与角色扮演场景中更符合人类偏好。

GLM-4.6线智谱MaaS平台bigmodel.cn即将在Hugging Face、ModelScope开源,遵循MIT协议。

Coding能力创国产模型新高

  1. 1. 综合评测

8大权威基准:AIME 25、LCB v6、HLE、SWE-Bench Verified、BrowseComp、Terminal-Bench、τ^2-Bench、GPQA 模型通用能力的评估中,GLM-4.6在部分榜单表现对齐Claude Sonnet 4/Claude Sonnet 4.5稳居国产模型首位。

智谱旗舰模型 GLM-4.6 上线,代码能力全面进阶

  1. 2. 真实编程评测

为了测试模型在实际编程任务中的能力,我们在Claude Code环境下进行了74个真实场景编程任务测试。结果显示GLM-4.6实测超过Claude Sonnet 4,超越其他国产模型

智谱旗舰模型 GLM-4.6 上线,代码能力全面进阶

在平均token消耗上,GLM-4.6比GLM-4.5节省30%以上,为同类模型最低。

智谱旗舰模型 GLM-4.6 上线,代码能力全面进阶

为确保透明性与可信度,智谱已公开全部测试题目与Agent轨迹,供业界验证与复现链接https://huggingface.co/datasets/zai-org/CC-Bench-trajectories

适配寒武纪、摩尔线程芯片

GLM-4.6已在寒武纪领先的国产芯片上实现FP8+Int4混合量化部署,这是首次在国产芯片投产的FP8+Int4模型芯片一体解决方案,在保持精度不变的前提下,大幅降低推理成本,为国产芯片在大模型本地化运行上开创了可行路径。

基于vLLM推理框架部署,摩尔线程新一代GPU可基于原生FP8精度稳定运行GLM-4.6,充分印证了MUSA架构和全功能GPU在生态兼容与快速支持方面的强大优势。

GLM-4.6和寒武纪、摩尔线程国产芯片的组合,即将通过智谱MaaS平台正式面向大众和企业提供服务。未来,国产原创GLM大模型与国产芯片联合推动在模型训练和推理环节的性能与效率优化。

Coding Plan 全面升级

随着GLM-4.6发布,智谱同步升级GLM Coding Plan(最低20元包月畅玩套餐)同时推出GLM Coding Plan企业版套餐,为企业级用户提供兼具安全、成本效益与国际顶尖性能的编码套餐。

此前订阅GLM Coding Plan包月套餐的用户自动升级至GLM-4.6,新增:

  • 图像识别与搜索能力。
  • 支持Claude Code、Roo Code、Kilo Code、Cline等10+主流编程工具。
  • 面向高频重度开发者提供GLM Coding Max,是Claude Max (20x) plan三倍用量。

获取与体验

  • 智谱MaaS平台bigmodel.cn、z.ai智谱清言已全面支持GLM-4.6;
  • 海外用户可通过z.ai使用 API;
  • 开源部署:GLM-4.6模型将在Hugging Face、ModelScope发布;
  • 开发者和企业通过bigmodel.cn直接购买GLM Coding Plan套餐/企业版套餐。

GLM-4.6的上一代模型GLM-4.5首次在单个模型中实现将推理、编码和智能体能力原生融合。GLM-4.5在代码能力上的突出表现让其取得一些成绩,在OpenRouter上稳居全球前十供应商,自发布后智谱MaaS平台API商业化实现10倍以上增长。

更多资料:

GLM-4.6 技术博客:https://z.ai/blog/glm-4.6


AI 前线

如何使用 GitHub Actions 和 OpenAPI Specifications 自动更新 API 文档

2026-1-3 2:09:05

AI 前线

蒸汽、钢铁与无限的大脑

2026-1-3 2:09:06

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索