-
【生成式人工智慧與機器學習導論 2025】第 7 講:大型語言模型的學習歷程
本课程深入探讨了 ChatGPT 和 Gemini 等 LLM 背后的三阶段学习范式:预训练、监督微调(SFT)和基于人类反馈的强化学习(RLHF)。文章通过“学龄前、上学、进入社会”的生动类比,清晰阐释了每个阶段在模型能力演进中的作用。预训练阶段通过海量自监督数据奠定语言与世界知识基础,强调算力、模型大小与数据质量的权衡(如 Chinchilla 定律),并探讨了数据瓶颈和模型并非死记硬背的特性…- 0
- 0
-
大模型如何推理?斯坦福 CS25 重要一课,DeepMind 首席科学家主讲 | 机器之心
文章深入解读了 Google DeepMind 首席科学家 Denny Zhou 在斯坦福大学 CS25 课程中对大语言模型推理能力的权威观点。他提出 LLM 推理的关键在于生成一系列中间 token,而非简单地扩展模型规模,这种机制使 Transformer 模型能变得极其强大。文章阐述了预训练模型本身已具备推理能力,但需要通过链式推理解码、提示技巧(如思维链)、监督微调(SFT)以及当前最强大…- 0
- 0
RLHF
幸运之星正在降临...
点击领取今天的签到奖励!
恭喜!您今天获得了{{mission.data.mission.credit}}积分
我的优惠劵
-
✈优惠劵使用时效:无法使用使用时效:
之前
使用时效:永久有效优惠劵ID:×
没有优惠劵可用!


