省流:悲!也许没有 R2 了!V3.1 把 R1 给融了!
重点 1:别被官方微信公告带沟里,128K 不是重点!模型融合推理才是重点!
重点 2:DeepSeek V3-0324 和 DeepSeek V3 用的同一个 base model,但这次的 V3.1 放出了新的 base model,大概率是重新训的新模型。别又被小版本号骗了。
先在前面更新一下我的主观感受:
DeepSeek V3.1 有进步,但不多。反而以前的老毛病回来不少:幻觉、中英文混杂。
如果只是一次实验性的关于 Chat、Reasoning 模型融合的测试,那 V3.1 是一次合格的增量更新。往好处想,如果 V3.1 成了,那将来不用单独部署两套模型,节约了一半的资源。
但如果这是未来一段时间 DeepSeek 的主力模型,而 V4 依旧遥远、R2 再也不见的话,那大家的很多期待也许就落空了。
目前只见到了微信群里的消息,所以还在蹲官方的模型开源以及文档更新,按照惯例会放出新的 Benchmark 成绩和能力说明。
Update 一下,DeepSeek V3.1 Base 的模型地址已经放出来了 (但还没有 model card):

但是在我看来,128K 绝对不是这次更新的重点。因为 DeepSeek V3/R1 的 Context Length 其实一直都是 128K,只不过 DeepSeek 官方的 API 之前只支持到 64K。
官方在 V3-0324 的说明里写的很明白了:
模型参数约 660B,开源版本上下文长度为 128K(网页端、App 和 API 提供 64K 上下文)
再比如,DeepSeek V3 HuggingFace 模型页

很明显,老版本的 DeepSeek R1 是不会有模型身份的认知错误的,但更新后的 DeepSeek,不论是网页对话,还是 API 调用 Reasoner 推理模型,都会明确说自己就是 V3。
答案只有一个,那就是 DeepSeek 跟 Qwen3(的第一个版本) 一样,被 GPT-5 忽悠进了模型融合、混合推理的沟里,试图把对话模型和推理模型融到了一起。
很难说这种做法好还是不好,毕竟 Qwen3 在尝试过融合推理之后,在新版本的更新里又分别放出了 Instruct 和 Thinking 模型。
而第一个提出要融合模型路线的 GPT-5 ,反而选择了 Chat 模型 Reasoning 模型 Router 路由的做法,从发布公告的文字表述上理解,并没有直接激进地融合模型:

diff 了一下 V3.1-Base 和 V3-Base 的配置文件,基本上没有大的改动,主要变化在于:
V3.1 通过新增 token ,提供了完整的思维模式支持:
(ID: 128798) - 推理开始标记 (ID: 128799) - 推理结束标记 (ID: 128796) - 搜索开始标记 (ID: 128797) - 搜索结束标记相应的,在 tokenizer 中,占位符Token被功能性Token替代:
→ → → →在 Chat Template 中:
新增 thinking 变量支持: {% if not thinking is defined %}{% set thinking = false %}{% endif %}新增 is_last_user 状态跟踪: 用于更精确的对话流程控制优化工具调用处理: 简化了工具调用的格式化逻辑思维模式集成: 自动在助手回复中添加和标记新配置文件:
{ "_from_model_config": true, "bos_token_id": 0, "eos_token_id": 1, "do_sample": true, "temperature": 0.6, "top_p": 0.95, "transformers_version": "4.46.3"}
综合配置文件的变更来看,V3.1 主要改进了推理模式、对话轮次控制、工具调用流程。(也许可以期待一下 Agent 能力的提升?)
初步测试:
鹈鹕测试,用的 Chat API,没开深度思考,说实话效果还不错。

相比于其他模型和旧版模型,新版 DeepSeek 特别喜欢写完整的 HTML 网页,而不是单纯的 SVG 代码,甚至执着于给 SVG 里的形象添加动态效果和动作…(还喜欢加标题、写涩话)
相关文章









猜你喜欢
成员 网址收录40418 企业收录2986 印章生成263572 电子证书1157 电子名片68 自媒体91237