腾讯正式发布新一代快思考模型混元 Turbo S,该模型旨在实现更快的响应速度,首字时延显著降低。通过长短思维链融合,Turbo S 在保持文科类问题快速体验的同时,基于自研混元 T1 慢思考模型合成的长思维链数据,显著改进了理科推理能力。在架构上,Turbo S 创新地采用了 Hybrid-Mamba-Transformer 融合模式,有效降低了计算复杂度和成本。在多个公开 benchmark 上,Turbo S 在知识、数学和推理等领域展现出对标 DeepSeek V3、GPT 4o、Claude 等领先模型的效果。目前,Turbo S 已在腾讯云官网上架,并通过 API 提供给开发者和企业用户,腾讯元宝也将逐步灰度上线该模型。
混元 Turbo S 模型已在腾讯云官网上架,开发者和企业用户可以通过 API 调用;
腾讯元宝中即将逐步灰度上线,欢迎大家使用和体验。
通过长短思维链融合,混元 Turbo S 在保持文科类问题快思考体验的同时,
基于自研混元 T1 慢思考模型合成的长思维链数据,显著改进了理科推理能力,实现模型整体性能明显提升。
在业界通用的多个公开 Benchmark 上,混元 Turbo S 在知识、数学、推理等多个领域,展现出对标 DeepSeek V3、GPT 4o、Claude等一系列业界领先模型的效果表现。
留 Transformer 擅于捕捉复杂上下文的优势,最终构建了显存与计算效率双优的混合架构。
这也是工业界首次成功将 Mamba 架构无损地应用在超大型MoE模型上。
通过模型架构上的技术创新,混元 Turbo S 部署成本大幅下降,持续推动大模型应用门槛降低。


作为旗舰模型,混元 Turbo S 未来将成为腾讯混元系列衍生模型的核心基座,为推理、长文、代码等衍生模型提供基础能力。
该模型此前已在腾讯元宝全量上线
(
腾讯混元T1模型面向所有用户开放
)
,用户可以选择Deepseek R1 或腾讯混元T1模型进行回答。
