-
马斯克 20 万块 GPU 炼出 Grok-3,暴击 DeepSeek R1 数学屠榜!疯狂复仇 OpenAI
文章报道了 xAI 公司发布的 Grok-3 系列大语言模型,包括 Grok-3 Beta、Grok-3 mini、Grok-3 Reasoning (Beta) 、Grok-3 mini Reasoning 以及 AI 智能体 DeepSearch。Grok-3 使用 20 万块 GPU 训练,在数学 (AIME 2024) 、科学问答 (GPQA) 、编码 (LCB) 等多个基准测试中刷新 S…- 0
- 0
-
推荐系统三十年:从协同过滤到大模型时代的技术编年史
文章系统地梳理了推荐系统从 1992 年诞生至今的三十余年发展历程。它以时间为轴,详细阐述了四个关键阶段:起源篇(协同过滤的黎明)、发展篇(Netflix Prize 与特征工程时代)、成熟篇(深度学习的全面统治)和未来篇(大模型时代的范式转移)。文中不仅介绍了 Tapestry、GroupLens 等早期系统,矩阵分解、GBDT+LR 等中期技术,以及 Wide & Deep、DIN 等…- 0
- 0
-
DeepSeek V3.2 正式版:强化 Agent 能力,融入思考推理
DeepSeek 正式发布了两款具有里程碑意义的大语言模型:DeepSeek-V3.2 和 DeepSeek-V3.2-Speciale。DeepSeek-V3.2 旨在平衡卓越推理能力与高效输出长度,特别适用于日常问答和通用 Agent 任务,在公开推理 Benchmark 中已达到 GPT-5 水平,且相比同类模型显著降低了计算开销和用户等待时间。DeepSeek-V3.2-Speciale …- 0
- 0
-
OpenAI 还怎么玩?谷歌凌晨炸场!Pro 级智商跌成“白菜价”,网友惊呼:六边形战士
文章详细介绍了谷歌最新发布的 Gemini 3 Flash 大模型,强调其在推理能力上匹敌旗舰模型 Gemini 3 Pro,同时拥有更快的响应速度和显著降低的成本。通过在 GPQA 博士级推理、多模态理解和编码智能体等多项基准测试中取得“屠榜”表现,Flash 版模型展现了“小而强”的进化。文章还深入探讨了其核心技术原理,如“思考层级”参数和上下文缓存,以实现性能与成本的平衡。它在复杂视频分析、…- 0
- 0
-
万字长文|大语言模型结构化输出(Structured Output)的技术原理和实现
文章全面而深入地探讨了大语言模型(LLM)结构化输出的技术演进、核心方法与未来趋势。首先阐明了结构化输出对于解决 LLM 自由文本的非确定性、幻觉及机器解析难题的根本价值,并将其定位为模型工程与传统软件工程的关键交互接口。随后,文章沿着技术从“软”到“硬”的演进路线,详细介绍了模式引导生成(Prompt 工程)、验证与修复框架(如 Guardrails)、约束解码(包括黑盒 LLM 的 Sketc…- 0
- 0
-
比女皇报告还炸裂!67 页 AI 深度调研刷屏,全球 LLM 大决战真正开始
硅谷财富管理巨头 Iconiq Capital(管理着包括扎克伯格在内的顶级客户 800 亿美元资产)发布了一份长达 67 页的《2025 年 AI 现状报告》。报告基于对 300 家 AI 公司高管的访谈和数据分析,聚焦 AI 落地的七大真问题:企业 AI 选型(OpenAI 领先)、AI 支出(数据存储处理成最大支出项)、开发工具地图、产品阶段支出、智能体(90%高增长公司部署)、定价模式(重…- 0
- 0
-
Gemini 2.5:我们的思维模型系列更新
本文详细介绍了 Google Gemini 2.5 模型系列的最新更新。文章宣布 Gemini 2.5 Pro 和 Gemini 2.5 Flash 已全面可用且稳定,并指出与最近的预览版相比没有变化。新模型 Gemini 2.5 Flash-Lite 以预览版形式推出,提供最低延迟和成本,专为分类和摘要等高吞吐量任务设计。文章解释了将 Gemini 2.5 模型视为具有可调思维预算的“思维模型”…- 0
- 0
-
和杨植麟时隔一年的独家对话:“站在无限的开端”
文章是张小珺对月之暗面创始人杨植麟的独家访谈。杨植麟分享了在 Kimi K2 模型发布后,对大模型领域“无限攀登”的哲学思考,引用《无穷的开始》强调问题解决与知识拓展的循环。他指出过去一年大模型最重要的范式级变化是长思考推理模型和基于多轮交互的 Agent 模型。K2 模型的关键技术创新在于通过 Muon 优化器提升 token efficiency,并在 Agentic 能力上寻求突破,以解决泛…- 0
- 0
-
GLM-4.7 上线并开源:更强的编码
文章详细介绍了智谱 AI 新发布的 GLM-4.7 大模型,该模型在编程能力、长程任务规划与工具协同方面取得了显著提升。特别是,GLM-4.7 在多语言编码、前端代码生成质量以及工具调用能力上表现出色,并在 SWE-bench-Verified、LiveCodeBench V6 等主流基准测试中达到开源 SOTA,甚至超越了 GPT-5.2 和 Claude Sonnet 4.5。文章还介绍了 G…- 0
- 0
-
2024 年人工智能年终总结报告|Artificial Analysis
文章回顾了 2024 年人工智能领域的重大进展,重点介绍了大模型、图像生成和语音识别等方面的技术突破。OpenAI、Google、Anthropic 等公司在模型能力、响应速度和价格上展开了激烈竞争,推动了 AI 技术的快速迭代和普及。开源模型与专有模型的性能差距显著缩小,推理定价大幅下降,小模型也能达到大模型的智能水平。图像生成质量和多模态能力得到了显著提升,语音识别技术也达到了新的里程碑。文章…- 0
- 0
-
GitHub 12w Star 神器!一文详解大模型集成框架 LangChain
文章详细解读了 LangChain 这一领先的大模型集成框架,旨在帮助开发者更高效地构建智能应用。首先,概述了 LangChain 的起源、核心价值及其在 LLM 应用开发中的重要地位,并从宏观层面介绍了 LangChain 的生态系统,包括 LangGraph、LangSmith 和 LangServe。接着,文章逐一深入讲解了 LangChain 的六大核心组件:Model I/O、Chain…- 0
- 0
-
200B 参数击败满血 DeepSeek-R1,字节豆包推理模型 Seed-Thinking-v1.5 要来了
字节跳动豆包团队发布了新的推理模型 Seed-Thinking-v1.5,该模型拥有 200B 总参数,采用 MoE 架构,每次激活 20B 参数。在 AIME 2024、Codeforces 和 GPQA 等基准测试中,Seed-Thinking-v1.5 均表现出色,甚至超越了 671B 参数的 DeepSeek-R1。该模型在数据构建、强化学习框架和基础设施方面进行了优化,包括构建 Beyo…- 0
- 0
-
浅入浅出——生成式 AI
本文旨在帮助读者快速理解生成式 AI。首先介绍了人工智能、机器学习和深度学习等基本概念,然后重点阐述了生成式 AI 的定义、特点和与分类问题的区别。接着,文章深入剖析了 ChatGPT 等大语言模型的工作原理,包括 Transformer 模型、 Tokenization、 Embedding、 Attention 机制等关键技术。此外,还详细讲解了大语言模型的训练阶段,包括 Pre-train、…- 0
- 0
-
V3→R1→V3.2|一文看懂 DeepSeek 技术演进
本文系统性地追溯了 DeepSeek 大模型从 V3 到 V3.2 的演进历程,详细阐述了每个主要版本背后的技术创新与考量。首先,文章介绍了 V3 版本中 MoE(专家混合)架构和 MLA(多头潜在注意力)机制,分别解决了大模型效率与长序列显存占用的问题。接着,R1 版本引入的 RLVR(可验证奖励的强化学习)训练范式,通过程序自动验证答案,显著提升了模型在数学和代码等推理任务上的准确性和可靠性,…- 0
- 0
-
LIama 4 发布重夺开源第一!DeepSeek 同等代码能力但参数减一半,一张 H100 就能跑,还有两万亿参数超大杯
Meta 发布了 Llama 4 系列模型,包括 Llama 4 Scout、Llama 4 Maverick 和 Llama 4 Behemoth。Llama 4 Scout 和 Maverick 已发布,是基于 MoE 架构的多模态模型,具备 170 亿激活参数,可在单个 H100 GPU 上运行,拥有超长上下文窗口。Llama 4 Maverick 在困难提示、编码、数学和创意写作方面表现出…- 0
- 0
-
这大概是我见过最通俗易懂的 AI 发展历程科普详文了
文章以通俗易懂的方式,系统梳理了人工智能从诞生前、初生期“规则式 AI”、成长期“统计式 AI”到爆发期“深度学习/大模型 AI”的演进脉络。文中详细解读了 AI 概念的起源、早期 NLP 及机器学习(监督学习)的应用与局限。重点阐述了 Transformer 架构如何实现技术突破,推动了大语言模型(LLM)及多模态 AI 的兴起,并展示了 AIGC 的实际能力。文章还深入探讨了智能体(Agent…- 0
- 0
-
刚刚,字节开源 Seed-OSS-36B 模型,512k 上下文
文章详细介绍了字节跳动 Seed 团队最新开源的 Seed-OSS 系列大模型,包括 Seed-OSS-36B-Base(含/不含合成数据)和 Seed-OSS-36B-Instruct 三个版本。这些模型基于 12 万亿(12T)tokens 进行训练,并以 Apache-2.0 许可证发布,支持自由使用、修改和再分发。其核心特性包括灵活的推理预算控制、增强的推理能力、智能体任务表现突出以及原生…- 0
- 0
-
辛顿 WAIC 演讲全文:大模型能“永生”,需确保它不会“消灭”人类
文章详细记录了图灵奖得主杰弗里·辛顿在 WAIC 大会上的演讲内容。他首先从历史角度回顾了 AI 的发展路径,并指出今天的大语言模型在本质上与人类理解语言的方式相同,都通过将词映射为高维特征并进行灵活组合来完成语义建模。辛顿强调,计算机科学的“软件-硬件分离”原则赋予了数字智能“知识永生”的潜力,使其能以远超人类口耳相传数十亿倍的速度进行高效复制和传播,极大地加速了知识的扩散。然而,这种“数字永生…- 0
- 0
-
大模型的 2025:6 个关键洞察,来自 OpenAI 创始人、AI 大神“AK”
文章详细解读了 Andrej Karpathy 对 2025 年大语言模型发展的六个核心洞察。它指出,RLVR (可验证奖励强化学习) 已成为提升模型能力的新引擎,推动 AI 训练哲学从“概率模仿”转向“逻辑推理”。同时,卡帕西提出了“召唤幽灵”与“进化动物”之辩,解释了 AI 智能表现出的锯齿状特性。文章还探讨了 Cursor 这类大语言模型应用如何为垂直领域整合 AI 能力,以及本地化智能体的…- 0
- 0
-
Kimi 大模型训推混部的稳定性与资源优化实战
文章深入剖析了月之暗面在 Kimi 大模型训推混部集群中的工程实践。面对大规模资源下的高故障率、低资源利用率和潮汐效应等挑战,月之暗面构建了全链路监控系统(如 Varys 情报总管),实现了连续异步 Checkpoint 机制以提升稳定性。为提高资源效率,文章介绍了动态云开发资源申请、任意级目录用量统计、异步模型评估和跨机房模型分发等方案,并详细阐述了训推多级潮汐系统。此外,文章还针对强化学习中训…- 0
- 0
-
快手 AutoThink 大模型 KAT-V1 正式开源,40B 性能逼近 R1-0528,200B 性能飞跃
快手正式开源了 KAT-V1 自动思考大模型,包含 40B 和仍在训练中的 200B 两个版本。该模型的核心创新在于其“自动思考”(AutoThink)模式,能根据问题复杂度自主决定是否进行深度推理,有效解决了现有大模型普遍存在的“过度思考”问题,从而提升了响应速度并降低了计算成本。文章详细介绍了 KAT-V1 背后的多项技术创新,包括长短思考混合训练范式、基于 GRPO 优化的 Step-SRP…- 0
- 0
-
关于 2025 WAIC 的一些思考
文章作者基于对 2025 年上海世界人工智能大会(WAIC)的线上直播见闻和线下活动感受,分享了对 AI 行业的思考。线上部分,作者提及 AI 在生物、医疗、机器人、密码学等领域的应用进展,并讨论了 AI 智能“演化”与“涌现”的概念。作者指出 AI 的本质是“电力转智力”,并强调数学、推理和编程是 AI 时代的关键能力。线下部分,文章简要介绍了大模型可解释性、动态超声等前沿研究,并引用了对当前大…- 0
- 0
-
“刷分”秘诀把旧游戏玩坏了,大模型被推入现实试炼场
文章指出当前 AI 领域存在大模型在 HumanEval、MMLU 等基准测试中表现优异,但在实际应用中却频繁“死机”的矛盾现象,微软 CEO 纳德拉称之为“Benchmark hacking”。这一现实与测评的脱节,促使行业重新审视 AI 的进步标准。文章引用 OpenAI 研究员姚顺雨《AI 下半场》的核心观点,认为 AI 的焦点正从“解决问题”迁移到“定义问题”,评估本身比训练更稀缺、更重要…- 0
- 0
-
硬核拆解!从 GPT-2 到 gpt-oss,揭秘大模型进化关键密码
文章深度解析了 OpenAI 最新开源的 gpt-oss(120B/20B)大语言模型,并追溯了其从 GPT-2 以来的架构演进。作者 Sebastian Raschka 博士详细阐述了多项关键技术变革,包括移除 Dropout、采用 RoPE 位置编码、Swish/SwiGLU 激活函数及 GLU 结构、引入 MoE 稀疏专家模型、使用 GQA 分组查询注意力、以及 RMSNorm 替代 Lay…- 0
- 0
大模型
❯
个人中心
购物车
优惠劵
今日签到
有新私信
私信列表
搜索
扫码打开当前页
返回顶部
幸运之星正在降临...
点击领取今天的签到奖励!
恭喜!您今天获得了{{mission.data.mission.credit}}积分
我的优惠劵
-
✈优惠劵使用时效:无法使用使用时效:
之前
使用时效:永久有效优惠劵ID:×
没有优惠劵可用!





