先看合作签署时间:OpenAI 和 AMD 于 2025 年 10 月签约,和 NVIDIA 则在 2025 年 9 月签约,前后仅间隔 1 个月,能明显感受到 OpenAI 在算力布局上的 “双轨并行” 策略。
核心合作的算力规模对比直观:
与 AMD 合作:计划部署总计 6 吉瓦(GW)的 AMD GPU 算力,主力为 AMD Instinct MI450 系列;与 NVIDIA 合作:要部署至少 10 吉瓦(GW)的英伟达系统,算力规模上 NVIDIA 更占优。再看等效芯片与单片功耗(直接影响硬件部署的 “密度” 与成本):
AMD 侧:若以 MI450 等效芯片计算,单片功耗达 2500W,对应至少需要 200 万片芯片;NVIDIA 侧:若以 GB300 等效芯片计算,单片功耗 1400W,对应至少需要 700 万片芯片。可见,AMD 单片功耗更高,但所需总芯片数更少;NVIDIA 单片功耗低,可总芯片需求几乎是 AMD 的 3.5 倍。这种差异源于两家芯片架构、能效比的不同,也会影响数据中心的电力、空间布局成本。
OpenAI 与 NVIDIA:NVIDIA 对 OpenAI 的股权投资,并不赋予其控制权 ——OpenAI 的非营利性母公司会保留多数治理控制权。也就是说,NVIDIA 属于 “财务 生态型” 投资,不像 AMD 与 OpenAI 那样有明确的 “算力进度 - 股权行权” 绑定。三、时间规划与技术协作重点时间规划上,首阶段部署节奏有差异:
AMD:2026 年下半年启动首 1 吉瓦 MI450 的 “设施建设 芯片交付”,整体为多年期合作;NVIDIA:2026 年底部署首 1 吉瓦 Vera Rubin 系统,时间点与 AMD 接近,但系统名称不同。技术协作重点也各有侧重:
AMD 方向:走 “芯片 - 模型 - 生态” 闭环。OpenAI 会反馈模型需求,反哺 AMD 开展芯片定制化优化。简单讲,AMD 的芯片会更贴合 OpenAI 未来大模型的训练、推理需求,是 “定制化协同” 模式;NVIDIA 方向:提供 Quantum-X800、InfiniBand/Spectrum-X 以太网等高速网络技术,支撑训练与推理。同时,会同步优化 OpenAI 的模型路线图与英伟达硬件,更偏向 “硬件 - 软件生态协同”。四、对行业的影响再思考结合这些细节再看郭明錤的分析:AMD 要部署 1GW MI450,CoWoS 产能虽足够,但从 “200 万片等效芯片” 的需求来看,供应链压力(比如 HBM、封装环节)依然存在,这也解释了为何 HBM 和 UALink 供应商会受到关注;而 NVIDIA 虽面临 AMD 的竞争,但本身算力规模更大、芯片基数更高,且技术协作侧重高速网络这类基础设施,加上股权上未被 OpenAI 深度绑定,确实更能 “以规模和生态保持优势”。
总之,OpenAI 同时牵手 AMD 和 NVIDIA,既想通过 AMD 的定制化芯片探索算力效率新可能,又要靠 NVIDIA 的规模与成熟生态托底。这场 “双保险” 式的合作,也让 AI 算力市场的竞争与创新更具看点。
相关文章









猜你喜欢
成员 网址收录40418 企业收录2986 印章生成263572 电子证书1157 电子名片68 自媒体91237