就在刚刚,DeepSeek 宣布正式推出新一代大模型 DeepSeek-V3.2,并同步发布长思考增强版 DeepSeek-V3.2-Speciale。
网页端、App 与 API 均已完成升级,替换此前的实验版本 V3.2-Exp,面向日常问答、通用 Agent 和高难推理场景提供统一服务。
在整体定位上,DeepSeek-V3.2 主打“推理能力与输出长度的平衡”。官方测试显示,该模型在公开推理类 Benchmark 上已达到 GPT-5 水平,仅略低于 Gemini-3.0-Pro,同时相较 Kimi-K2-Thinking 明显缩短了回答长度,在保证推理质量的前提下,降低算力成本与用户等待时间。

针对极限场景,DeepSeek 推出了长思考版本 DeepSeek-V3.2-Speciale。这一模型在 V3.2 的基础上叠加了 DeepSeek-Math-V2 的定理证明能力,重点强化复杂数学推理与逻辑验证。在主流数学、代码与通用推理评测中,Speciale 的表现已可与 Gemini-3.0-Pro 直接对标;更具话题性的是,官方称该模型在 IMO 2025、CMO 2025、ICPC 世界总决赛与 IOI 2025 等顶级赛事中取得金牌成绩,其中 ICPC 与 IOI 成绩分别逼近人类选手第二名与第十名水平,凸显其在极限推理场景的上限潜力。

与此前版本最大的差异,在于 DeepSeek-V3.2 首次将“思考模式”与“工具调用”真正打通。官方引入大规模 Agent 训练数据合成方法,构造了 1800 个交互环境、超过 8.5 万条“难解答、易验证”的复杂任务,用于强化模型的决策规划能力与工具协同能力。在相关智能体评测中,DeepSeek-V3.2 取得当前开源模型中的最高分,大幅缩小了与闭源头部模型的差距。

在使用形态上,标准版 V3.2 支持思考模式与非思考模式下的工具调用,适合搜索、代码执行、数据分析等真实业务场景;Speciale 版则更像“实验室级武器”,只提供思考模式对话,不开放工具调用,默认最长输出 128K Tokens,主要面向研究机构与极客用户,用于探索大模型在复杂证明、竞赛题和高难编程任务上的极限能力。
目前,DeepSeek-V3.2 已在 Hugging Face 与 ModelScope 全面开源权重,API 侧也完成更新,原本接入 V3.2-Exp 的开发者无需更改调用方式即可获得新版能力。Speciale 版本则通过临时 API 单独开放,设置了明确的到期时间与使用边界,强调“供评测与研究使用”的定位。
从产品节奏来看,DeepSeek 试图通过“双模型策略”拉高开源阵营的天花板:一方面让标准版 V3.2 在能力、成本与稳定性上对标 GPT-5,真正可用于 Agent 应用落地;另一方面用 Speciale 冲击数学、编程与竞赛类极限任务,持续在高难推理上制造“话题度”和技术声望。
相关文章









猜你喜欢
成员 网址收录40418 企业收录2986 印章生成263572 电子证书1157 电子名片68 自媒体91237