一、前言:哪个发烧友能抵挡本地部署大模型的诱惑
今年年初,横空出世的DeepSeek AI大模型火爆出圈,一夜过后人人都在谈论DeepSeek大模型,而已经进入第二年的AI PC方面,自然也不会落后。
相对于直接付费使用成熟的AI应用,DeepSeek完全开源的特性也让更多发烧友乐于在本地部署,充分利用越发强大的硬件AI性能。
但是对于主流的笔记本平台,在本地运行DeepSeek大模型,效果如何呢?
我们找来了当下比较新的轻薄本,Intel平台和AMD平台各一台,测试一下不同平台在本地运行DeepSeek大模型的表现。

Intel酷睿Ultra 9 285H处理器基于Arrow Lake架构,拥有6个性能核,8个能效核和2个低功耗能效核,一共16核心,但不支持超线程技术,所以总线程数也是16, 性能核最大睿频频率为5.4GHz,拥有24MB高速缓存。
它内建Intel锐炫140T显卡,包含8个Xe核心,同时还内置NPU,能够提供高达13 TOPS的算力。
CPU GPU NPU全平台总算力达到99 TOPS,为本地运行大模型提供了很好的支撑。

需要注意的是,Intel酷睿Ultra 9 285H处理器的TDP高达45W,AMD锐龙AI 9 HX370处理器的TDP只有28W。
当然,Intel和AMD都允许笔记本制造商根据具体产品设计,在一定范围内设定处理器功耗。


我们这次准备的两台笔记本,Intel方面是一台轻薄本,实际烤机测试CPU稳定释放功率只有35W左右,而AMD方面是一台全能本,还搭载了一块NVIDIA RTX 4060Laptop独立显卡(已禁用),拥有更强劲的散热配置和功耗表现,实际烤机测试中可以稳定释放高达60W的功率。
笔记本平台并不像台式机主板一样可以方便地在BIOS中对CPU功耗性能等进行限制,所以这个测试并不是一个非常严谨的性能对比测试,只能说分别测试一下各自的表现情况和我们的使用体验,请读者朋友们自行比较。
三、DeepSeek-R1模型测试:iGPU算力也可流畅运行本地部署的14B模型
Ollama是一个开源的大语言部署服务工具,只需iGPU即可部署大模型。
我们这次测试就是基于Ollama框架,在本地部署DeepSeek-R1的蒸馏版模型,测试使用iGPU的运行效率。
Ollama作为一个开源软件,功能依赖全球开发者的共同维护,自然也会有一些特别的分支。
我们此次测试,专门找来了针对 intel 推理框架和AMD ROCm推理框架分别优化过的Ollama版本,更能体现Intel和AMD硬件在各自最佳环境下的运行效率。



这也从一个侧面说明,AI大模型的高效运行,不仅仅是硬件性能的问题,软件的适配同样重要,甚至比硬件性能更重要一些。
就像谈论AI算力,NVIDIA是个绕不开的名字一样,NVIDIA的CUDA和硬件相辅相承,共同构成了宽阔的护城河,Intel和AMD作为追赶者,必须付出巨大的努力和代价才有机会在这个领域挑战NVIDIA的地位。
Intel现在不遗余力地推广OpenVINO,我们已经看到了结果。也许硬件的真实性能强弱难以量化比较,但从我们这次的体验来看,Intel酷睿Ultra 9 285处理器在用户实际使用中,确实能发挥出比AMD锐龙AI 9 HX370处理器更强的性能。
再加上Intel连续举办的人工智能创新应用大赛,用真金白银鼓励开发者开发基于OpenVINO的AI应用,Intel平台的AI应用正在迎来一个百花齐放的时代。
DeepSeek大模型极大地抹平了桌面平台面临的算力鸿沟之后,AI应用的丰富程度,专用推理架构的普及程度,硬件性能的发挥水平,共同决定了谁才是AI PC时代的王者。
Intel现在在全力推广OpenVINO,我们也不希望AMD被拉开太远,NVIDIA算力霸权的挑战者越多越好。
相关文章









猜你喜欢
成员 网址收录40418 企业收录2986 印章生成263572 电子证书1157 电子名片68 自媒体91237