来源:市场资讯
(来源:硅星人)

在资源投入层面,DeepSeek 做出了超常规的决定。
论文明确写道:"近几个月来,性能提升与扩展的 RL 训练预算持续相关,该预算已超过预训练成本的 10%。"这个数字在开源界极为罕见。具体来说,DeepSeek 为数学、编程、推理、Agent 等六大领域分别训练了专家模型,每个都单独进行大规模强化学习训练。在持续预训练阶段,模型经历了 943.7B tokens 的训练(在 128K 上下文长度下),然后采用 GRPO(Group Relative Policy Optimization)算法进行混合训练,整合推理、Agent 和人类对齐三类任务。
在 Agent 能力强化方面,DeepSeek 开发了系统化的任务合成流程。
他们合成了超过 1800 个多样化环境和 85,000 条复杂提示,涵盖各种真实场景。具体包括 24,667 个代码 Agent 任务、50,275 个搜索 Agent 任务、4,417 个通用 Agent 任务和 5,908 个代码解释器任务。这些合成数据不是随机生成的,而是通过冷启动阶段学习推理与工具使用的统一模式,然后在规模化阶段系统地生成高质量训练场景。
效果是显著的。在 Agent 相关的测试中,DeepSeek V3.2 显著缩小了与闭源模型的差距,在 MCP-Universe 上达到了 80.3% 的成功率,虽然仍低于 Gemini 的 87.9%,但已经是开源模型中的最佳表现。论文总结说:“DeepSeek V3.2 成为 Agent 场景中极具成本效益的选择,显著缩小了开源与前沿闭源模型之间的性能差距。”
论文最后写了一句耐人寻味的话:"如果 Gemini 3.0 证明了持续扩展预训练的潜力,DeepSeek V3.2-Speciale 则证明了在大规模上下文环境中强化学习的可扩展性。"言下之意很明显:闭源巨头有资源堆预训练,但开源可以找到自己的路——通过更高效的架构和更科学的后训练,用更少的资源实现接近的效果。
这或许是开源 AI 唯一的生存之道:不是硬碰硬拼资源,而是拼技术路线的创新。至少在这一次,DeepSeek 证明了这条路是走得通的。
点个“爱心”,再走 吧
相关文章









猜你喜欢
成员 网址收录40418 企业收录2986 印章生成263572 电子证书1157 电子名片68 自媒体91237