![]()
NVIDIA通過發布Vera CPU擴大其在AI數據中心堆棧中的控制地位,這款處理器專為處理新興智能體AI系統的編排層而設計。
在GTC 2026大會上發布的這款芯片,標志著AI基礎設施構建方式的轉變——將CPU從支撐組件提升為AI工作負載的核心控制平面。
"CPU不再僅僅是支持模型運行;它正在驅動模型,"NVIDIA首席執行官黃仁勛在GTC主題演講中說道。
從訓練轉向編排
隨著AI從訓練轉向生產,瓶頸正從單純依賴GPU轉向編排、推理協調和實時執行。
智能體AI系統——構建用于執行任務、調用工具和管理多步驟工作流程——需要大量CPU資源來協調數千個并發進程并維護運行時環境。
"我認為Vera值得關注,"Moor Insights & Strategy副總裁兼分析師Matt Kimball告訴Data Center Knowledge。"盡管CPU被GPU的聲音淹沒,但它不會消失——從架構角度來看,Vera有點革命性。"
"CPU是GPU集群的控制和編排平面,"他補充說。"隨著智能體AI的擴展,這一角色變得更加苛刻,而不是更少。"
為AI原生并發而構建
Vera基于NVIDIA的Grace架構構建,但引入了針對高并發和持續利用而優化的設計。
該芯片具有以下特性:
88個定制的基于Arm的"Olympus"核心,每個核心都能使用NVIDIA空間多線程運行兩個任務
LPDDR5X內存提供高達1.2TB/s的帶寬
用于多租戶性能的第二代可擴展一致性結構
但架構變化更深層次。
"空間多線程、神經分支預測、PyTorch優化的指令緩沖區、圖數據庫預取引擎——這些不僅僅是調整,"Kimball說。"它們以更多核心和內存本身無法做到的方式改變了性能配置。"
"傳統的x86不是為此而設計的。Vera是,"他補充說。"它實際上是一個AI CPU——為智能體和強化學習工作負載而構建。"
與Rubin GPU集成
Vera不是獨立產品;它與NVIDIA的下一代平臺策略緊密集成。在Vera Rubin NVL72平臺內,Vera CPU通過NVLink-C2C與GPU配對,提供高達1.8TB/s的一致性帶寬——約為基于PCIe系統帶寬的7倍,公司表示。該架構使計算層之間的數據移動更快,這對于在CPU編排和GPU執行之間動態切換的工作負載至關重要。
Vera還被定位為HGX Rubin NVL8系統的主機CPU,有效地充當GPU密集型AI集群的控制層。
擴展AI工廠
NVIDIA還通過機架規模的Vera系統擴展其"AI工廠"概念。這些系統支持:
多達256個液冷CPU
超過22,000個并發CPU環境
通過BlueField DPU和ConnectX SuperNIC進行集成網絡和數據處理
該設計反映了工作負載模式的轉變,從批處理到連續執行,從單一模型到分布式多智能體系統。
廣泛的生態系統支持
NVIDIA提到了圍繞Vera的廣泛合作者和早期采用者,包括云服務提供商和AI基礎設施合作伙伴,如Meta Platforms、阿里巴巴、字節跳動、Oracle云基礎設施、CoreWeave、Nebius Group和Lambda,以及包括戴爾科技、惠普企業、聯想和Supermicro在內的OEM廠商。
Kimball指出,超大規模驗證——特別是Meta——是重要的。"Meta的采用不是試點,"他說。"這表明他們希望確保數百萬個GPU持續得到供應。"
他還看到了新興的更廣泛企業應用。"Vera為NVIDIA提供了完整的計算平臺故事——不僅僅是GPU,"他說。"隨著智能體AI進入企業環境,這一點至關重要。"
功耗和下一個約束
Kimball強調功耗效率是一個決定性因素。
"它以比x86更低的功耗完成所有這些工作,"他說。"在功耗受限的數據中心世界中,這不是一個特性——這是一個根本性轉變。"
DCK分析:重新定義AI演進的CPU
Vera代表了AI基礎設施的結構性轉變——不僅僅是另一個CPU發布。雖然GPU和模型規模定義了過去幾年,但轉向生產AI正在暴露一個新的瓶頸:系統編排。
隨著智能體AI工作負載的擴展,挑戰不再僅僅是執行模型;而是實時協調數千個進程。這種轉變正在重新定位CPU作為AI性能的關鍵組件。
NVIDIA與Vera的策略反映了更廣泛的雄心,即將其主導地位從加速器擴展到AI系統的控制平面。通過緊密耦合CPU和GPU,該公司將自己定位為全棧供應商——擁有執行和編排兩方面。
這在以NVIDIA為中心的環境中具有直接優勢,其中集成可以推動性能和效率提升。它還對Intel和AMD等傳統CPU供應商施加了新的競爭壓力,它們現在必須調整為通用計算構建的架構,以適應日益AI原生的工作負載。
如果智能體AI按預期擴展,數據中心將演變為實時進程的協調系統。在該模型中,CPU變得至關重要,競爭優勢從單個芯片轉向對整個系統的控制。
Q&A
Q1:Vera CPU與傳統CPU有什么不同?
A:Vera CPU專為AI工作負載設計,配備88個定制Arm核心,支持空間多線程技術,具備神經分支預測和PyTorch優化指令緩沖區等AI原生功能,功耗比傳統x86架構更低。
Q2:NVIDIA Vera CPU在智能體AI系統中起什么作用?
A:Vera CPU充當智能體AI系統的控制和編排平面,負責協調數千個并發進程,管理多步驟工作流程,處理任務調用和工具使用,確保GPU集群高效運行。
Q3:Vera CPU如何與GPU配合工作?
A:Vera CPU通過NVLink-C2C技術與Rubin GPU緊密集成,提供高達1.8TB/s的一致性帶寬,比PCIe系統快7倍,實現CPU編排和GPU執行之間的快速數據傳輸和動態切換。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.