
国产大模型厂商的开源,还在提速。
就在刚刚,智谱正式发布最新旗舰模型 GLM-4.5。按照智谱官方说法,这是一款「专为 Agent 应用打造的基础模型」。
延续一贯的开源原则,目前这款模型已经在 Hugging Face 与 ModelScope 平台同步开源,模型权重遵循 MIT License,商用也没问题。
省流版:
GLM-4.5 在推理、代码、智能体综合能力达到开源模型 SOTA 水平;GLM-4.5 采用混合专家(MoE)架构,包括 GLM-4.5:总参数量 3550 亿,激活参数为 320 亿;GLM-4.5-Air:总参数量 1060 亿,激活参数为 120 亿;两个版本均已全面开源,支持 MIT License;GLM-4.5 和 GLM-4.5-Air 均支持混合推理模式,提供两种模式:用于复杂推理和工具使用的思考模式,以及用于即时响应的非思考模式。API 调用价格低至输入 0.8 元/百万tokens、输出 2 元/百万tokens;高速版最高可达 100 tokens/秒。GLM-4.5 这次比较大的技术卖点,是首次在单个模型原生融合了推理、编码和智能体能力。别人家的模型要么擅长推理,要么擅长写代码,要么擅长当助手,而 GLM-4.5 说自己全都要。
老规矩,先来看看新模型「跑分」环节。

由 GLM-4.5 打造的量子功能箱各项功能齐全,充分展示了模型的综合能力。

开发者体验这块,国产厂商也开始学会「卷起来」了。比如 GLM-4.5 就兼容 Claude Code、Cline、Roo Code 等主流代码智能体。完整使用指南看这里:
国内用户:https://docs.bigmodel.cn/cn/guide/develop/claude海外用户:https://docs.z.ai/scenario-example/develop-tools/claude如果说前面都是「面子」,那技术内核才是 GLM-4.5 真正的「里子」。
冷知识,GLM-4.5 的参数量仅为 DeepSeek-R1 的 1/2、Kimi-K2 的 1/3,但性能却不打折,而这背后正是归功于 GLM 模型更高的参数效率。
尤其是 GLM-4.5-Air,用 106B 总参数 / 12B 激活参数,在推理评测中已经逼近 Gemini 2.5 Flash 与 Claude 4 Sonnet。在 SWE-bench Verified 榜单上,它还位列性能/参数比的帕累托前沿——换句话说,用更少的体量,跑出了更优的性价比。

性能提升的背后,则离不开训练过程的「大力出奇迹」。
GLM-4.5 和 GLM-4.5-Air 使用了相似的训练流程:首先在 15 万亿 token 的通用数据上进行了预训练。然后在代码、推理、Agent 等领域的 8 万亿 token 数据上进行了针对性训练,最后通过强化学习进一步增强了模型的推理、代码与智能体能力。有钱有资源,确实可以为所欲为。

此外,GLM-4.5 在成本和效率上的突破可能更具杀伤力。API 调用价格低至输入 0.8 元/百万 tokens,输出 2 元/百万 tokens,同时,高速版本实测生成速度最高可至 100 tokens/秒,支持低延迟、高并发的实际部署需求,真·价格屠夫。
目前,API 已上线开放平台 BigModel.cn,一键兼容 Claude Code 框架。普通用户也可以上智谱清言 (chatglm.cn) 和 Z.ai 体验满血版 GLM-4.5。
值得一提的是,上个月,OpenAI 在旗下的 Global Affairs 账号发表的报告中,也是直接点名智谱,称其在全球 AI 竞赛中取得了显著进展,语气可以说是罕见直白。
回过头来看,智谱算是增长势头比较稳定的厂商,节奏一直没乱,模型迭代跟得上、开源尺度放得开,方向感也不飘。这么看来,它能成为「AI 六小龙」中第一个启动 IPO 的玩家,也就不那么意外了。
#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。
爱范儿|原文链接· ·新浪微博
相关文章









猜你喜欢
成员 网址收录40418 企业收录2986 印章生成263572 电子证书1157 电子名片68 自媒体91237