朋友们,DeepSeek又整活了。
就在大家还在感叹闭源模型(像Gemini 3.0 Pro、GPT-5)和开源模型的差距似乎在重新拉大时,DeepSeek-V3.2直接把这份技术报告甩在了桌上。
我看完了整份报告,心情很复杂。因为这次V3.2不仅仅是性能的提升,更重要的是它解决了一个核心痛点:如何在开源算力有限的情况下,把“推理能力”完美地嫁接到“Agent(智能体)”场景里,同时还不用因为长文本把显存撑爆。
简单说,DeepSeek-V3.2干了三件大事。
第一,它是怎么变“快”的?——DSA稀疏注意力机制大家知道,随着Context(上下文)越来越长,以前的Transformer架构(Vanilla Attention)效率是越来越低的。你想想,处理128K的长文本,计算量是指数级爆炸的。
DeepSeek这次掏出了一个新武器:DeepSeek Sparse Attention (DSA)。
这个东西非常巧妙。它包含了一个“闪电索引器(Lightning Indexer)”和一个“细粒度Token选择器”。用大白话解释就是:以前模型看书是每一个字都要盯着看,现在DSA学会了“速读”——它能快速判断哪些部分是重要的,只对那些最关键的信息进行精细处理,而忽略那些无关紧要的背景噪音。
结果怎么样?报告里写得很清楚,在保持长文本性能(128K context)不掉点的情况下,计算复杂度大幅降低。这就意味着,我们以后在本地跑超长上下文任务时,推理成本和速度都会有巨大的优势。图表显示,它的推理成本曲线比上一代平缓太多了,简直是长文本玩家的福音。
第二,它是怎么变“强”的?——疯狂堆RL(强化学习)很多人以为预训练(Pre-training)结束模型就定型了。但DeepSeek这次告诉我们:好戏还在后头。
V3.2的一个核心策略是Scalable Reinforcement Learning (RL)。他们把后训练阶段(Post-training)的算力预算直接拉到了预训练成本的10%以上!这不是小数目。
通过这种大规模的RL训练,V3.2在逻辑推理能力上直接起飞。特别是他们搞出来的那个“怪物”版本——DeepSeek-V3.2-Speciale。
这个Speciale版本有多夸张?
• IMO 2025(国际数学奥林匹克)金牌水平。• IOI 2025(国际信息学奥林匹克)金牌水平。• ICPC World Final 2025 金牌水平。在报告的图表里,Speciale版本的柱状图在数学和代码竞赛上是压着GPT-5 High和Gemini-3.0 Pro打的。虽然后者在通用知识广度上可能还有优势(毕竟人家训练数据多),但在这种硬核推理任务上,DeepSeek已经证明了开源模型完全可以达到SOTA(State of the Art)级别。
第三,它是怎么变“灵”的?——让思考融入工具使用这可能是我觉得V3.2最有价值的改进。
之前的DeepSeek-R1虽然推理很强,但在用工具(比如写代码、搜网页)时,往往会“脑子转不过弯”。要么是想完了再干,要么是干了就不想。
V3.2引入了一个Large-Scale Agentic Task Synthesis Pipeline(大规模Agent任务合成流水线)。
这套逻辑太性感了:
1. 他们先用DeepSeek-V3搞了一个“冷启动”,把推理和工具使用结合起来。2. 然后,他们自己造数据!生成了超过1800个虚拟环境和85,000个复杂的Prompt。3. 让模型在这些虚拟环境里不断试错、不断RL。更有意思的是它的“思考上下文管理”。以前的模型,用一次工具,之前的思考过程可能就丢了,或者导致上下文爆炸。V3.2设计了一套机制:只有当新的用户消息进来时,才丢弃旧的思考过程,但保留工具调用的结果。
这意味着模型可以在多次调用工具的过程中,一直保持“在线思考”的状态,而不会因为多轮对话把Token限额瞬间吃光。
在Agent相关的榜单(比如SWE-bench Verified, Terminal Bench)上,DeepSeek-V3.2的表现大幅超越了之前的开源模型,甚至逼近了闭源的Gemini-3.0-Pro。这对于想用开源模型做全自动写代码Agent的开发者来说,绝对是个重磅利好。
总结与思考看完这份报告,我有一个很深的感触:DeepSeek正在走出一条属于开源模型的独特道路。
以前我们总觉得开源就是“抄”闭源的作业。但DeepSeek-V3.2展示了:
• 架构创新(DSA解决效率问题);• 数据工程(合成数据解决Agent训练数据短缺问题);• 训练策略(加大后训练RL比重解决推理上限问题)。虽然DeepSeek团队在报告最后也诚实地承认,在“世界知识的广度”上,受限于预训练算力,他们离Gemini-3.0-Pro这种巨头还有差距。但在智能密度(Intelligence Density)和推理深度上,他们已经把旗帜插在了山顶。
对于我们普通用户和开发者来说,DeepSeek-V3.2意味着你可以用更低的成本(甚至在本地),跑一个拥有金牌数学能力、且极其擅长使用工具的超级模型。
开源不倒,创新不止。期待V3.2权重的正式放出,到时候我们第一时间实测!
大家怎么看这次V3.2的升级?欢迎在评论区聊聊。

欢迎免费获取AI 超级个体知识库:「链接」
相关文章









猜你喜欢
成员 网址收录40418 企业收录2986 印章生成263572 电子证书1157 电子名片68 自媒体91237