这两天不少人看到NVIDIA又掏出一颗CPU的消息,第一反应基本都是:你家GPU都快把服务器市场“刷屏”了,怎么还要亲自下场做CPU?
但说实话,NVIDIA要做CPU这事儿,在圈子里早就不算新鲜八卦了,传了十几年。真正值得看的是:他们这次想做的CPU,跟AMD、Intel那套传统路数到底差在哪儿?以及——他们凭什么去说服几十家客户真的买单,去用这颗叫Vera的CPU。
黄仁勋在会后采访里把态度讲得挺直白:NVIDIA从来不反CPU,也没打算把CPU“打死”。他甚至提到,他们不是想去挑战什么极限理论,更不是要掀桌子。你能听出来,这不是公关话术那种“我们尊重同行”,而是他们确实清楚:在今天的数据中心里,CPU依然是那个把整套系统串起来的骨架。
问题在于,骨架要是弱,肌肉再强也发挥不出来。
黄仁勋的逻辑其实挺现实:NVIDIA一直在买最顶级、甚至最贵的CPU。原因很简单——如果CPU不够强,反过来会拖累那些动辄几百万美元的加速卡(你懂的,主要就是GPU和整套加速系统)。GPU再猛,数据喂不进来、IO跟不上、调度卡壳,整体效率照样掉。这种“花大钱买最强卡,结果卡在最普通的瓶颈上”,对数据中心来说就是纯亏。
所以他们最后还是决定:既然传统路线走到头了,那就自己来做一颗更适配AI时代的CPU。
这里有个关键分歧点:NVIDIA眼里“传统CPU的思路”和“AI时代的CPU思路”不一样。
传统服务器CPU很长一段时间更像是在服务大规模云计算那种场景:核心越堆越多,吞吐越大越好,单核到底有多猛,反倒不是第一优先级。很多工作负载可以靠并行去摊掉单核不足的问题。
但NVIDIA说他们看到的现实是:之前那类CPU单核太弱了——尤其放到“AI智能体”和强化学习这类任务里,很多链路并不是你堆一堆核就能解决的。你需要单线程够硬、需要IO够狠,才能把GPU集群的能力真正榨出来。
于是Vera CPU主打的点就很明确:单线程表现 + 超强IO。
你看它公布出来的一些规格,也能大概理解“IO无敌”这话从哪来:
Vera是88核加超线程,内存带宽给到1.2TB/s(LPDDR5X),还有1.8TB/s的NVLink-C2C互联带宽;黄仁勋拿它对比PCIe 6.0,说能到7倍这种级别。放在数据中心这种“数据在系统里跑来跑去”的场景,IO就是命门——不是跑分好看不好看的问题,是你整套系统能不能把算力吃满的问题。
聊回大家最关心的那一段:它的单线程到底有多强?
目前比较尴尬的是——还没看到足够可信、可横向对比的数据。你可以理解为,官方说法里强调“单核更强”,更像是在对比过去那些偏云服务、偏吞吐堆核的服务器CPU思路。但如果指望ARM阵营现在就正面超过x86最顶级那批产品的单核体验,我个人也觉得没那么容易,至少短期内很难一句话盖棺定论。
但这并不妨碍你理解NVIDIA这盘棋:他们不是为了做一颗“桌面神U”,也不是为了在传统CPU擂台上争个第一。更像是为了把AI服务器这条链路里最容易拖后腿的一块补齐——让CPU不再成为GPU集群的“刹车片”。
放到游戏玩家的语境里,这事有点像什么?就像你显卡已经上到顶了,结果你发现帧数上不去不是显卡问题,而是CPU单核、内存带宽、总线通道把你卡死了。你再加显卡也没用,得把“喂数据”的那套东西一起换掉。数据中心只不过把这个问题放大了几千倍、几百万美元而已。
接下来就看两件事:一是Vera的单线程实测到底站不站得住;二是它这套IO/互联优势,能不能在真实客户的AI训练、推理、智能体工作负载里转化成肉眼可见的效率提升。只要能做到后者,客户买单的理由就会很朴素——不是因为它叫NVIDIA,而是因为它能让整套昂贵的GPU系统跑得更值。
