

算力扩张的天花板
苏茨克沃在访谈中指出,过去十年 AI 行业将 “Scaling”(规模扩张)奉为圭臬,通过固定比例混合算力、数据和模型参数,就能实现性能稳定提升。
这种确定性吸引了海量资本涌入,OpenAI一年仅实验开支就高达 50-60 亿美元,但如今这一 “配方” 已濒临失效。
一方面互联网高质量文本数据几乎被搜刮殆尽,合成数据的收益递减拐点已至。另一方面算力扩张的成本压力愈发凸显。

2025年中国智能算力规模预计达 1037.3EFLOPS,同比增长 43%,但数据中心的能耗、散热瓶颈让 “算力上天” 成为新探索方向,谷歌甚至启动 “太阳捕手” 计划,试图在太空搭建 TPU 算力网络。
苏茨克沃直言,现有路径只能让 AI 模型 “再走一段,却成不了真正的智能”。
当前大模型的典型困境是,在编程竞赛中能碾压人类,却在修复代码漏洞时陷入 “旧错未改、新错又生” 的死循环。这种矛盾的本质,是模型泛化能力的缺失,强化学习为了特定奖励信号过度优化,研究者又不自觉地 “为考核而训练”,最终导致基准测试与实际应用严重脱节。

用300亿估值押注 “研究优先”
苏茨克沃的 SSI 公司成为这场行业转型的标志性样本。
这家估值 300 亿美元的初创企业,既无产品也无推理负载,唯一目标就是验证泛化能力的技术理论。
面对 “30 亿美元融资如何对抗 OpenAI 的百亿开支” 的质疑,苏茨克沃指出,大型实验室的预算大多被推理基础设施、产品开发等分散,真正用于核心研究的资金占比极低。

历史早已证明真正的范式突破从不依赖极致算力,AlexNet 仅用 2 块 GPU 训练,2017 年的初代 Transformer 模型也只用到 64 块 GPU。
苏茨克沃认为,AI行业需要找回 “研究品味”,有希望的技术方向必然简洁、优美,且能从生物智能中获得灵感。
这种 “自上而下的信念”,是任何算力规模都无法替代的。

他甚至预测,具备类人泛化能力的AI系统将在 5-20 年内出现,而超级智能的部署将从 “一次性造好” 转变为 “持续教育” 的过程。

AI安全的新共识
苏茨克沃的访谈还揭示了 AI 行业的另一重转变,随着技术能力的提升,安全问题正成为行业共识。
OpenAI 与 Anthropic 已宣布在 AI 安全上展开合作,苏茨克沃则提出更激进的对齐目标。

让 AI关心所有感知生命,而非仅针对人类。他认为,人类的跨物种共情源于大脑神经机制的共性,这一特性或许能为机器对齐提供新思路。
尽管这一理论仍存争议,但反映出行业对 AI 伦理的思考已从技术层面深入到生物智能本质。
相关文章









猜你喜欢
成员 网址收录40418 企业收录2986 印章生成263572 电子证书1157 电子名片68 自媒体91237