首次!国产芯片全程训练,GLM-Image 登顶 Hugging Face Trending

智谱 AI 开源的 GLM-Image 模型,作为首个完全在国产芯片上训练并达到 SOTA 标准的多模态模型,在发布不到 24 小时内登顶 Hugging Face Trending 榜首。该模型采用创新的“自回归+扩散解码器”混合架构,并基于昇腾 Atlas 800T A2 设备和昇思 MindSpore AI 框架进行全流程训练及推理适配,验证了国产算力训练 SOTA 模型的可行性。GLM-Image 在 CVTG-2K 和 LongText-Bench 榜单上表现优异,尤其擅长汉字生成,可应用于知识密集型场景。




2026-01-16 08:51 北京

首次!国产芯片全程训练,GLM-Image 登顶 Hugging Face Trending

首个在国产芯片上全程训练的SOTA多模态模型GLM-Image开源不到24小时即登顶全球知名AI开源社区Hugging Face Trending榜第一。模型SOTA性能、创新架构和训练过程引发海外科技圈热议。

这也是首次完全依托国产芯片训练的国产模型在国际舞台上取得榜首身位,标志国产AI模型的端到端自主研发能力在国际竞争中取得突破。

Image

GLM-Image项目的最终目标就是全流程创新,是GLM团队面向以Nano Banana Pro为代表的新一代「认知型生成」技术范式的一次重要探索。

从架构上看,不同于开源常用的LDM方案,GLM-Image采用了创新的「自回归+扩散解码器」混合架构,并在基本对齐主流方案的基础上验证了新架构在知识密集型场景下生成的优越性。

从训练基础上看,GLM-Image实现了基于昇腾Atlas 800T A2设备和昇思MindSpore AI框架的全流程训练及推理适配,实际训练性能足以达到相应计算设备的汇报性能上限,验证了在国产算力上训练出SOTA模型的可行性。

从性能表现上看,GLM-Image在CVTG-2K(复杂视觉文本生成)和LongText-Bench(长文本渲染)榜单获得开源第一,能够读懂指令,写对文字尤其擅长汉字生成任务,可广泛应用于海报、PPT、科普图等知识密集型场景

即刻体验

登录智谱清言APP/网页版,进入“AI画图”智能体,左下角选择GLM-Image,即可免费体验。

开源地址

GitHub:

https://github.com/zai-org/GLM-Image

Hugging Face:

https://huggingface.co/zai-org/GLM-Image

更多技术细节与demo详见🔎:

智谱联合华为开源首个国产芯片训练的多模态SOTA模型

首次!国产芯片全程训练,GLM-Image 登顶 Hugging Face Trending

阅读原文

跳转微信打开


AI 前线

央行下调结构性政策利率,美国对特定半导体加关税 | 财经日日评

2026-1-16 22:20:42

AI 前线

2026,对 AI 的第 2 个预测

2026-1-16 22:20:49

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索