-
DeepSeek-R1 更新,思考更深,推理更强
DeepSeek 发布了其 R1 模型的小版本更新 DeepSeek-R1-0528,基于 DeepSeek V3 Base 基座,通过增强后训练显著提升了模型的思维深度和推理能力。新版本在数学、编程和通用逻辑等多项基准测试中表现优异,特别是在复杂推理任务如 AIME 2025 中准确率大幅提升。文章提到模型在解题过程中使用了更多 tokens 进行深入思考。此外,新版模型优化了幻觉问题,降低幻觉…- 0
- 0
-
DeepSeek V3.2 正式版:强化 Agent 能力,融入思考推理
DeepSeek 正式发布了两款具有里程碑意义的大语言模型:DeepSeek-V3.2 和 DeepSeek-V3.2-Speciale。DeepSeek-V3.2 旨在平衡卓越推理能力与高效输出长度,特别适用于日常问答和通用 Agent 任务,在公开推理 Benchmark 中已达到 GPT-5 水平,且相比同类模型显著降低了计算开销和用户等待时间。DeepSeek-V3.2-Speciale …- 0
- 0
-
从 o1-mini 到 DeepSeek-R1,万字长文带你读懂推理模型的历史与技术
文章详细梳理了推理模型从 OpenAI 的 o1-mini 到 DeepSeek-R1 的发展历程,并深入探讨了其背后的技术原理。首先介绍了推理模型与标准 LLM 的区别,强调了长思维链在推理过程中的重要作用。接着,文章深入分析了如何通过强化学习训练推理模型,特别是利用可验证奖励进行训练的方法。此外,还探讨了推理时间策略,如思维链和解码技术,以及并行解码和自我优化等方法。文章重点介绍了 DeepS…- 0
- 0
-
全新开源的 DeepSeek-OCR,可能是最近最惊喜的模型。
文章详细介绍了 DeepSeek 团队全新开源的 DeepSeek-OCR 模型,指出其并非传统意义上的 OCR 工具,而是一种革命性的长文本上下文处理方案。传统大模型在处理长文本时面临计算复杂度呈平方级增长的困境,DeepSeek-OCR 通过将文本内容“压缩”成二维图像,再编码为视觉 Token,大幅降低了上下文窗口的 Token 消耗,实现了高达 10 倍的压缩比并保持高识别准确率。文章通过…- 0
- 0
-
DeepSeek-R1 发布,性能对标 OpenAI o1 正式版
DeepSeek 正式发布了 DeepSeek-R1 模型,该模型在数学、代码、自然语言推理等任务上性能对标 OpenAI o1 正式版。DeepSeek-R1 在后训练阶段大规模使用了强化学习技术,极大提升了模型推理能力。DeepSeek 不仅开源了模型权重,还提供了 API 服务,允许用户通过设置 `model='deepseek-reasoner'` 调用思维链输出。此外…- 0
- 0
-
DeepSeek 新模型被硅谷夸疯了!用二维视觉压缩一维文字,单 GPU 能跑,"谷歌核心机密被开源"
文章详细介绍了 DeepSeek 最新开源的 DeepSeek-OCR 模型,该模型创新性地提出“上下文光学压缩”思路,利用视觉方式高效压缩文本信息,显著降低大模型处理长文本的计算开销。通过将文字信息转化为少量视觉 token,实现了高达 10 倍的压缩率,同时保持 97%的 OCR 解码准确率,并在主流文档解析基准 OmniDocBench 上取得了 SOTA 性能。其核心 DeepEncode…- 0
- 0
-
DeepSeek-V3.1 发布,迈向 Agent 时代的第一步
DeepSeek 正式发布 V3.1 模型,核心亮点包括创新的混合推理架构,使其能同时支持“思考模式”与“非思考模式”,并能自由切换。新模型通过 Post-Training 优化,大幅增强了在编程智能体(SWE、Terminal-Bench)和搜索智能体(browsecomp、HLE)任务中的表现。在思考效率方面,V3.1-Think 模式在保持性能的同时,能将输出 token 数减少 20%-5…- 0
- 0
-
DeepSeek 与元宝 “互动”!AI 助手日渐融入我们的生活
在科技迅速发展的今天,AI 助手已逐渐成为人们日常生活中不可或缺的一部分。12 月 24 日,DeepSeek 官方在小红书上与元宝互动,点赞并回应了元宝发布的年度报告,这一罕见的公开互动引起了行业的广泛关注。根据《元宝 ×DeepSeek 年度报告》,自今年 2 月接入 DeepSeek 以来,元宝的用户规模稳步增长,并在 12 月 14 日达到了使用高峰,增长幅度超过 100 倍。这一成绩使元…- 0
- 0
-
刚刚,DeepSeek-R1 论文登上 Nature 封面,通讯作者梁文锋 | 机器之心
文章报道了 DeepSeek-R1 研究登上《Nature》封面,强调了其在利用强化学习提升大语言模型(LLM)推理能力方面的创新。DeepSeek-R1 模型通过群组相对策略优化(GRPO)和精巧的奖励设计,使模型能够自我验证和反思,逐步解决复杂问题,显著提高了在编程和科学问题上的表现。文章特别指出,DeepSeek-R1 是首个通过权威学术期刊同行评审的大语言模型,这一“程序价值”被视为 AI…- 0
- 0
-
DeepSeek-V3.2-Exp 发布,训练推理提效,API 同步降价
深度求索正式发布实验性模型 DeepSeek-V3.2-Exp,其核心创新是引入了 DeepSeek Sparse Attention(DSA)稀疏注意力机制。该机制在不显著影响模型输出效果的前提下,大幅提升了长文本场景下的训练和推理效率。文章指出,V3.2-Exp 在公开评测集上的表现与前一代 V3.1-Terminus 基本持平。为推动技术普惠和社区发展,DeepSeek 同步大幅下调 API…- 0
- 0
-
DeepSeek 的终极野心:把大语言模型的基本语言都改造成图像|DeepSeek 新论文解读
文章深入解读了 DeepSeek-OCR 项目,该项目旨在通过光学压缩技术解决大语言模型(LLM)长上下文处理的算力瓶颈。核心思想是将文本信息高效地渲染成图像,并由视觉语言模型(VLM)从图像中解压信息,从而用远少于文本 token 的视觉 token 表示相同内容。Andrej Karpathy 等专家认为,此举带来了信息压缩、更通用的信息流、更强的处理方式以及删除分词器的四大好处。文中详细介绍…- 0
- 0
-
DeepSeek-V3.2|技术报告解读
本文对《DeepSeek-V3.2: Pushing the Frontier of Open Large Language Models》技术报告进行了详尽解读。文章指出,DeepSeek-V3.2 在推理能力上已追平 GPT-5-High,其高算力版本 Speciale 在数学和编程领域接近 Gemini-3.0-Pro。实现这些突破的关键在于三项核心技术:首先,**DeepSeek 稀疏注意…- 0
- 0
-
DeepSeek-V3 正式发布
DeepSeek-V3 是 DeepSeek 公司最新发布的自研 MoE 模型,拥有 671B 参数,激活 37B,并在 14.8T token 上进行了预训练。该模型在多项评测中表现优异,超越了 Qwen2.5-72B 和 Llama-3.1-405B 等其他开源模型,并在性能上与 GPT-4o 和 Claude-3.5-Sonnet 等顶尖闭源模型不相上下。DeepSeek-V3 在百科知识、…- 0
- 0
DeepS
幸运之星正在降临...
点击领取今天的签到奖励!
恭喜!您今天获得了{{mission.data.mission.credit}}积分
我的优惠劵
-
✈优惠劵使用时效:无法使用使用时效:
之前
使用时效:永久有效优惠劵ID:×
没有优惠劵可用!






