“AI已經進入工業化階段。”這是黃仁勛近日在CES 2026演講中的核心斷言。
他帶來的,是即將量產的Rubin平臺——這個以天文學家維拉·魯賓命名的系統,代表著英偉達對下一代AI計算的重新定義。
![]()
圖源:微博
黃仁勛坦率表示,AI模型規模每年增長10倍,推理所需令牌數量每年增加5倍,傳統的芯片設計方法已無法跟上AI的發展速度,這迫使英偉達重新設計每一款芯片。
面對來自AMD、博通和谷歌自研ASIC的多維競爭,老黃終于使出了一套完整的平臺級戰略。
![]()
Rubin提前量產,令人震撼
一句話評價:此次英偉達發布的Rubin平臺不是一次簡單的硬件升級,而是一次徹底的架構革命。
它由6顆專門設計的芯片組成:Vera CPU、Rubin GPU、NVLink 6 Switch、ConnectX-9智能網卡、BlueField-4 DPU和Spectrum-X 102.4T CPO。
其中,Vera CPU作為英偉達新一代計算架構的核心,采用了88個物理核心的設計,通過空間多線程技術實現176線程滿速運行,與傳統的CPU設計思路截然不同,它更加強調在功耗受限環境下的性能密度,而非單純的核心數量堆疊。
與此同時,Rubin GPU的表現也令人印象深刻。雖然晶體管數量僅為上一代Blackwell的1.6倍,但在浮點性能上卻實現了超越。這一突破來自于全新的張量核心與Transformer Engine設計,而非簡單的規模擴大。
![]()
圖源:微博
事實上,Rubin平臺代表了英偉達對“極致協同設計”理念的徹底貫徹。與以往各組件孤立優化的做法不同,英偉達將GPU、CPU、網絡、安全、軟件、供電和冷卻系統作為一個單一系統進行整體設計(對應以上芯片介紹)。
黃仁勛在演講中透露,這個系統的復雜性超乎想象,一個裝滿冷卻液的AI機柜重達2.5噸,但組裝時間卻從2小時縮短到僅5分鐘。
該設計理念源于AI工作負載的根本性變化。現代AI系統已從處理離散任務,演變為持續運轉的“AI工廠”,需要全天候、不間斷地將電力、硅和數據轉化為智能。
性能方面,Rubin平臺與前代Blackwell相比,在推理性能上提升了約5倍,訓練性能提升了約3.5倍。
更重要的是,在處理混合專家模型時,訓練所需的GPU數量減少到了Blackwell平臺的四分之一,推理令牌生成成本則最多可降低10倍。
更夸張的是,據老黃介紹,Rubin平臺的成熟度已達到量產水平,所有芯片已進入合作制造和測試階段。主流云服務提供商如AWS、谷歌云、微軟Azure、Oracle等均已確認將在2026年推出基于Rubin平臺的計算實例。
![]()
圖源:微博
據悉,早在2024年英偉達就已對外公布了Rubin架構的存在。而在2025年10月的華盛頓GTC大會上,黃仁勛第一次對外展示了Rubin芯片的樣片,并透露其算力指標能達到當時主力出貨產品Blackwell系列芯片的3倍以上。
彼時,業內人士普遍猜測英偉達將在2026年下半年正式發布并量產Rubin。
但在本次CES上,黃仁勛宣布Rubin架構目前已經實現全面投產,時間節點大幅提前。
OpenAI首席執行官Sam Altman評論稱:“智能隨算力而擴展。當我們增加算力時,模型會變得更強大,能夠解決更棘手的問題,并對人類產生更大影響。NVIDIA Rubin平臺幫助我們持續這一進程。”
此外還有馬斯克等諸多大佬對此發表了自己的看法,全部被收錄進NVIDIA(英偉達)官網:
![]()
圖源:NVIDIA官網
![]()
AI正從理解語言邁向理解物理世界
黃仁勛在CES上提出了一個標志性觀點:“物理AI的ChatGPT時刻已經到來。”
他想表達的意思是,AI正從理解數字信息,走向理解并與物理世界互動。該現象被黃仁勛稱為“物理AI”(Physical AI)。
自動駕駛是這一戰略的先導應用。英偉達推出了Alpamayo系列開源AI模型,這是業界首個具備思維鏈推理能力的視覺語言行動模型。
它能逐步分析罕見或全新駕駛場景,提升車輛的可解釋性和安全性,由NVIDIA Halos安全系統提供支持。
Alpamayo的價值在于應對自動駕駛的“長尾難題”。傳統的分離式感知與規劃架構在遇到新情況時擴展性受限,而Alpamayo的端到端學習框架通過逐步推理因果邏輯,即使面對訓練數據之外的情況也能安全決策。
首款搭載該系統的梅賽德斯-奔馳CLA將于2026年第一季度正式上路。
![]()
圖源:觀察者網
與此同時,英偉達正以前所未有的開放姿態構建機器人生態系統。
在CES上,波士頓動力、卡特彼勒、Franka Robotics、LG電子等全球行業領導者展示了基于英偉達技術棧的新一代AI驅動機器人。
黃仁勛興奮地宣布,英偉達正通過開放模型降低機器人開發門檻。
NVIDIA Isaac GR00T N1.6是專門為人形機器人設計的開源模型,能夠實現全身控制,并利用NVIDIA Cosmos Reason模型獲得更好的推理和情境理解能力。
如此推崇開放策略的背后,是英偉達將超過200萬機器人開發者與Hugging Face的1300萬AI開發者社區連接起來的宏大愿景。
機器人已成為Hugging Face上增長最快的類別,而英偉達的開放模型和數據集下載量領先。
![]()
圖源:微博
![]()
黃仁勛的野心不止芯片
在整場演講中,黃仁勛反復強調英偉達的定位:不做AI應用的競爭者,而是成為整個AI產業的“賣鏟人”。
他對此解釋道,計算產業每隔10到15年就會發生一次底層重置:從大型機到PC,從互聯網到云計算,再到移動計算。
這一次,兩個平臺遷移同時發生:一是應用本身從“編程”轉向“訓練”,二是整個計算棧被重寫,CPU不再是中心,GPU成為默認。
黃仁勛估算了這場重置的市場規模:全球傳統計算體系規模約為10萬億美元,而這部分基礎設施,正在被系統性地“現代化”為AI計算。
這種現代化進程并非由增量投資驅動,而是來自企業研發預算、風險投資和整個工業體系的遷移。
英偉達在這一市場中的戰略選擇非常明確:作為“賣鏟人”,為所有人提供新平臺的基礎設施。
![]()
圖源:微博
開源策略成為英偉達生態擴張的關鍵抓手。黃仁勛在演講中特別贊揚了開源模型的革命性作用,并再次強調了來自中國的DeepSeek模型帶來的影響。
他表示:“開源模型的崛起成為全球創新的催化劑,其中Deepseek R1的出現意外推動了整個行業的變革。”雖然頂尖開源模型與最前沿專有模型之間仍有約6個月的差距,但這種快速迭代正激活全球創新。
黃仁勛強調:“我們怎么可能讓智能的數字形式拋下任何人?”
英偉達自身也投入了價值數十億美元的DGX超級計算機集群來推動開源模型發展,并在蛋白質結構預測(Open Fold Three)、天氣預測(Forecast Net)等多個科學領域取得突破。
更關鍵的是,英偉達的生態系統已經延伸到硬件供應的最上游。黃仁勛特別提到,臺積電是Vera Rubin幕后的關鍵推手之一。
雙方在制程、封裝到光電整合展開深度協同設計,并以其COUPE技術,將硅光子直接整合至交換晶片。
此外,英偉達還與英特爾合作,將NVLink的應用場景拓展至x86 CPU,進一步擴大在服務器互連領域的影響力。
英偉達還推出了專門針對大型語言模型推理應用的Rubin CPX架構,引入了全新的機柜概念,并在芯片間采用PCIe 6互連。
從芯片性能的單一競賽,到AI工廠的系統級優化;從封閉的硬件生態,到開放的機器人開發平臺;從單打獨斗的硬件巨頭,到連接全球開發者的生態核心。
黃仁勛的皮衣之下,包裹的是一個正在從硬件公司蛻變為AI時代核心基礎設施提供商的科技帝國。
作者 | 劉峰
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.