
用户实测
根据网友的反馈,最开始是在火山引擎、chutes 等第三方 API 上出现的这个问题:

来源: https://linux.do/t/topic/897789
也有知乎用户@Fun10165 称,在调用 VolcEngine DeepSeek V3.1 帮忙整理一份物理试卷的时候发现输入包含了“极板”这些词:



或是数据集“污染”
至于为什么 DeepSeek V3.1 会突然冒出「极」或者「extreme」,官方到目前为止还没有回应。
不过,一些技术人分析发现,这个「极」字在模型中的 token ID 是 2577,而它紧邻省略号(...) token ID 是 2576,对此,他们认为有两种可能性:
一是数据集“污染”:可能是在数据清洗阶段,有些包含特殊或错误字符的数据没有被彻底过滤掉。
二是模型“偷懒”:在训练时,模型可能找到了一种“捷径”——当它遇到不确定的上下文时,会优先选择一些频繁出现或邻近的 token,从而导致「极」「extreme」这种奇怪的输出频繁出现。
也有知乎用户@AI 解码师(https://www.zhihu.com/question/1942934856603505597/answer/1943250946730726808)判断——这是训练数据和蒸馏链条里遗留下来的瑕疵,其解释道:
模型在枚举数列时,会在长串输出的尾部插入一个奇怪的收尾标记,例如“极长的列表”。这个词很可能是在预训练或 SFT 数据合成时遗留下来的。换句话说,数据里本身就存在“极长的…”这样的表达,没有被清洗掉,而模型在学习枚举模式时,不小心把「极」当成了一种语义边界符。
而且,当这个模式一旦进入 RL 或自蒸馏阶段,它就可能被放大。模型会把「极」误认为是某种 终止符或切换标记,于是即使在正常的推理输出中,也可能随机触发。这种触发率往往很低(比如千分之一),但是在大规模用户测试里就会显得刺眼。这背后反映出一个更深层次的问题:大模型并不是在真正理解语言,而是在学习数据分布里的统计规律。如果训练数据中混入了“极长的数组”这种模式,模型就可能把它当成一种“隐含的指令”,而不是单纯的自然语言。
毋庸置疑,这个问题影响还是不小的——这些奇怪字符频繁出现,会让模型在编程、结构化输出等需要精确结果的场景下表现不稳定,也可能干扰信息的准确性。目前,还得等 DeepSeek 官方的回应和修复。
话说,你在使用过程中有没有遇到类似的情况呢?
参考:
https://www.reddit.com/r/LocalLLaMA/comments/1mzsg6v/deepseek_v31_getting_token_extreme_极_極_out_of/
https://linux.do/t/topic/897789/16
https://www.zhihu.com/question/1942934856603505597/answer/1943250946730726808
【活动分享】2025 全球机器学习技术大会(ML-Summit)北京站将于 2025 年 10 月 16-17 日在北京威斯汀酒店举办。大会共 12 大主题、50 海内外专家,聚焦大模型技术和应用变革。详情参考官网:https://ml-summit.org (或点击原文链接)。
相关文章









猜你喜欢
成员 网址收录40418 企业收录2986 印章生成263572 电子证书1157 电子名片68 自媒体91237