
这也许是强化学习带来的结果,因为强化学习的目标只有一个:拿到最终的奖励,也就是解对题目。在这个过程中,模型自发地发现,混合不同语言的表达,甚至创造自己的符号,是达成目标最高效的路径。它不在乎人类能否读懂,只关心哪种表达方式能用最少的 Token、最快的速度,抵达正确的答案。
然而,这种「天书」式的思考过程对于面向用户的应用是不可接受的。于是,DeepSeek 推出了经过「驯化」后的 R1 版本。
为了解决语言混乱和可读性差的问题,团队引入了两项关键措施:
冷启动数据:用一小批高质量、语言一致的人类思维链对模型进行微调。语言一致性奖励:在强化学习阶段,如果模型在思考过程中混杂中英文,就会受到惩罚。这种做法很有效,但代价是什么?
DeepSeek 在 R1 的论文中坦率地承认,这种为了对齐人类偏好而施加的约束,导致了模型性能的「轻微下降」。
这是一个关键的信号:强迫 AI 用某种特定的人类语言进行思考,会带来性能上的牺牲,是一种为了可读性而付出的「对齐税」。
但没办法,为了用户体验,必须摆正性能和可读的天平,否则模型即便做对了题,用户也看不懂啊。
二、OpenAI 刻意遮掩下,暴露的模型中文思维无独有偶,今年 2 月,OpenAI 的 o3-mini 模型也曾被国外用户发现会在推理中大量使用中文。

要知道,Token 代表了模型的注意力,模型在处理更长上下文时性能不佳,就是注意力机制的问题。Token 也代表了用户的使用成本。
为此,DeepSeek V3.2 引入了全新架构 DeepSeek Sparse Attention (DSA),为的也是解决效率问题。
在预算有限的情况下,如何最大化信息获取?答案显而易见:让每一个被关注的 Token 都承载尽可能多的信息。
叠加来看,有没有可能,如果用英文思考,可能只能回顾最近 50 个逻辑步骤;而用高信息密度的中文思考,则可能覆盖长达 100 个逻辑步骤的完整历史。
所以,DeepSeek V3.2 坚持中文思考,也许并非简单的训练数据偏向,而是其核心架构与语言特性的共同结果。
DSA 架构奖励高密度语言,而中文,恰好是地球上主流语言中信息密度最高的那个。它自发学会了了一种天然的思维压缩算法。
四、语言的边界,就是认知的边界维特根斯坦有一句名言:「语言的边界,就是世界的边界」。
人们通过语言所能理解、思考和表达的范围,决定了他们所能认知的世界。
而在语言认知领域,还有一个著名的萨丕尔-沃夫假说,认为语言不仅是交流的工具,它决定了思维的方式。
换句话说,语言是否会塑造思维?
前段时间,《Cell》上有篇论文,研究发现,认知科学长期由英语母语者主导,导致研究结论存在巨大偏差。

人类的思维模式深受母语特性(如语法、词汇、书写方向)的影响。例如,习惯从右向左书写的阿拉伯语使用者,与英语使用者在记忆事件顺序时就存在相反的空间偏好。一些语言(如马来西亚语)拥有丰富的嗅觉词汇,其使用者对气味的感知也更为敏锐。
所以,将英语的特性默认为人类认知的共性,是一种严重的局限。
长期以来,AI 领域是被英语统治的。所有的主流模型、测试基准、训练数据,都默认使用英语,显然也有巨大的潜在问题,极有可能限制我们对机器智能潜力的想象。
DeepSeek 的实践表明:机器思维语言的效率边界,决定了它认知世界的深度与成本边界。
说白了,模型可以用更高效率的内在语言进行思考,然后翻译为受众能看懂的语言进行对话。
从某种意义上讲,模型的思考效率比我们高,是为了照顾我们的接受水平在做向下兼容。
五、结语:不止是语言,更是思维的范式回到文章开头那个让西方用户焦虑的问题:以后用 AI,真的还得先学中文吗?
我今天看到外网真的有人在认真讨论,要不要学普通话?

这下真成了「全世界都在学中国话,孔夫子的话,越来越国际化」。
当然了,只是用 AI,未必需要专门去学中文、懂英文,前面说了,AI 自会翻译成我们能看懂的语言。
但是,如果把语言学习看作思维塑造,那外国朋友们多学点中文自然是好事。
过去,我们被迫学习英语,是因为最前沿的代码、文档、论文都是英文的;而今天,AI 主动选择了中文,不是出于文化偏好,仅仅是因为在追求「智能」的物理法则下,中文是当前人类语言中能效比更高的解。
而这,也许会在无形间,把中华思维传向世界。
相关文章









猜你喜欢
成员 网址收录40418 企业收录2986 印章生成263572 电子证书1157 电子名片68 自媒体91237