防走失,電梯直達安全島
![]()
來源:經濟觀察報
來源:鄭晨燁
![]()
黃仁勛的這場演講值得仔細看的地方不在于萬億美元這個數字本身,而在于他用兩個小時講了一套新的商業邏輯:數據中心正在從訓練模型的地方,變成生產Token的工廠。
封圖:英偉達官網
![]()
素有AI行業年度風向標之稱的英偉達GTC大會,今年3月16日至19日在美國加利福尼亞州圣何塞舉行。
當地時間3月16日上午11點,也就是北京時間3月17日凌晨2點,英偉達CEO黃仁勛在圣何塞SAP中心發表了超過兩小時的主題演講。
黃仁勛在演講中預測,到2027年全球AI基礎設施相關需求將達到1萬億美元。他還說,實際需求可能會比1萬億美元高得多,英偉達的產品甚至會供不應求。
這個數字發布后,英偉達美股股價瞬時跳漲超過4%。但幾個小時后A股開盤,算力產業鏈股票集體下跌,天孚通信(300394.SZ)收盤跌幅超10%,長光華芯(688048.SH)收盤跌幅亦達9.72%,多數龍頭股回吐了近5日漲幅。
一邊是萬億美元預期,一邊是產業鏈股票大跌,落差來自時間尺度。
黃仁勛講的是未來的需求預期,而他預告的下一代Feynman芯片架構要到2028年才上市。另外,萬聯證券在3月16日發布的研報中指出,A股電子板塊截至3月15日的平均市盈率約為82倍,市場或在擔心“高處不勝寒”。
但黃仁勛的這場演講值得仔細看的地方不在于萬億美元這個數字本身,而在于他用兩個小時講了一套新的商業邏輯:數據中心正在從訓練模型的地方,變成生產Token的工廠。
Token工廠
Token是大語言模型處理信息的基本單位,可以粗略理解為AI處理或生成的文字片段,一個漢字大約對應一到兩個Token。
過去兩年,Token的消耗量發生了幾次量級上的跳躍。
黃仁勛在演講中把這件事追溯到了三個節點:2022年底ChatGPT上線,AI學會了生成內容,開始大量消耗Token;ChatGPT o1模型出現后,AI學會了推理和反思,為了思考,它要在內部生成大量Token給自己看;Claude Code(Anthropic公司開發的AI編程工具)發布后,AI能讀取文件、編寫代碼、編譯測試,每完成一個任務消耗的Token比簡單對話多出好幾個數量級。
黃仁勛提到,英偉達所有的軟件工程師都在用AI輔助編程。
AI的工作分兩個階段:訓練是讓模型變聰明的過程,需要花一次大錢把模型練出來;推理是模型干活的過程,每天都在發生,需求也越來越大。過去全球買GPU(圖形處理器,目前AI計算的核心硬件)主要是為了訓練,現在重心已經在向推理轉移。
黃仁勛說,推理服務商的業務規模過去一年增長了100倍。IDC中國分析師杜昀龍也告訴經濟觀察報記者,目前國內推理服務器不論增速還是占比均已超過訓練,從服務器出貨金額來看,推理占比已接近60%。
推理的需求在爆發,但Token還沒有形成市場定價體系。
黃仁勛在演講中給出了他認為未來會出現的五檔價格:免費層,Token產出量大但響應速度慢;中等層,每百萬Token約3美元;高級層,每百萬Token約6美元;高速層,每百萬Token約45美元;頂級層,每百萬Token約150美元。模型越大、上下文越長、響應速度越快,Token就越貴。
他以頂級層舉了個例子:一個研究團隊每天用5000萬Token,按每百萬Token150美元來算也就只有7500美元,對企業來說不算什么。上下文窗口從32K個Token拉到400K個Token之后,AI能一次性讀完一整份合同或一整個代碼庫,價格對應的是此前做不了的事情。
有了分層定價,數據中心的經濟模型就變了。
黃仁勛說,每一座數據中心都受電力限制,一座1GW(吉瓦,一種電力計量單位)的數據中心永遠不會變成2GW,這是電力和土地決定的。在固定功率下,誰消耗每瓦電力能產出的Token最多,誰的生產成本就最低。也就是說,同樣耗一度電,誰能生產更多Token,誰就能賺得更多。
他在演講時展示了一組數字:同一個1GW數據中心,假設把算力分配給不同價格層級,使用英偉達當前的Blackwell架構年營收約300億美元,換成新一代Vera Rubin約1500億美元,再加上Groq LPU推理加速器約3000億美元。同一座數據中心,換一套設備,營收可以相差10倍。
英偉達2026財年全年營收2159億美元,數據中心業務貢獻了其中的1937億美元。
按黃仁勛的邏輯,客戶現有的數據中心還沒有被充分利用,換上新一代設備,同樣的電力條件下收入可以翻好幾倍。萬億美元預期就是這么來的,不是芯片漲價,是同樣的電力能生產出更多、更貴的Token。
黃仁勛說,未來每一位CEO都會盯著自己Token工廠的效能,因為那直接就是收入。
他還描述了一個正在硅谷出現的變化:現在越來越多工程師日常用AI寫代碼、做研究、處理文檔,這些操作都要消耗Token,企業需要為員工使用AI的開銷買單。
黃仁勛預測這筆開銷會大到需要單獨列預算,就像企業給員工配電腦和軟件一樣。
他還說,未來每個工程師入職時都會拿到一份年度Token預算,金額大約相當于基礎薪資的一半。
兩種芯片
黃仁勛的這套Token經濟學對應的硬件,是GTC上正式發布的Vera Rubin平臺。
黃仁勛在演講中說,過去談Hopper架構的時候他會舉起一塊芯片,但Vera Rubin不是一塊芯片的事,它是一整個系統。這套系統做到了百分之百的液冷,安裝時間從過去的兩天壓縮到了兩個小時。
Vera Rubin由七款芯片組成。核心機架NVL72集成72顆Rubin GPU和36顆Vera CPU,通過NVLink 6(英偉達自研的芯片間高速互連技術)相連。與上一代Blackwell相比,每瓦推理吞吐量最高提升10倍,單Token成本降至十分之一。
英偉達同時發布了全新88核Vera CPU,為AI智能體場景下的工具調用和數據處理做了專門優化。
黃仁勛在演講中稱,微軟CEO納德拉已向他確認,首批Vera Rubin機架已在Azure(微軟的云計算平臺)上運行。
但Vera Rubin有一個短板,黃仁勛在演講時說,當每個用戶每秒需要生成超過400個Token時,NVL72的帶寬就不夠用了。補上這個缺口的,是Groq這家成立于2016年的美國AI加速芯片公司。英偉達此前收購了Groq的技術授權和核心團隊。
Groq的LPU(語言處理單元)和GPU是完全不同的兩種芯片。GPU內存大、算力強,單顆Rubin GPU有288GB內存,適合處理復雜計算。LPU內存小但讀寫速度極快,單顆只有500MB存儲,裝不下大模型的完整參數,但生成Token的速度和延遲遠優于GPU。
英偉達通過一套叫Dynamo的推理調度軟件,把推理過程拆成了兩步:需要大量算力和內存的上下文理解交給Vera Rubin處理,對延遲敏感的Token生成交給Groq LPU。兩者通過以太網高速連接協同工作,延遲減少約一半。
黃仁勛管這種方式叫解耦推理(即把推理過程拆分給不同芯片處理),核心想法是承認高吞吐和低延遲天然矛盾,不如讓兩種芯片各干各擅長的事。
他說,這套組合在45美元和150美元的高價格層級實現了相比上一代35倍的性能提升。
從更長的時間維度看,同一個1GW的數據中心,兩年時間,Token生成速率可以從每秒2200萬提升到7億。
黃仁勛給客戶的建議是,如果工作以高吞吐的批量推理為主,就完全用Vera Rubin;如果有大量編程、實時交互等需求,可以拿出25%的數據中心算力配Groq LPU。
黃仁勛表示,Groq 3 LPU由三星代工,已在量產,預計今年三季度出貨。
軟件方面,英偉達發布了企業級智能體平臺NemoClaw,支持近期火爆的開源項目OpenClaw。OpenClaw在幾周之內成為GitHub(全球最大的開源代碼托管平臺)上增長最快的開源項目,黃仁勛把它的地位抬到和Linux同一級別,說它是智能體計算機的操作系統。
但企業環境下直接用開源的OpenClaw有安全風險,因為智能體可以訪問公司的敏感數據、執行代碼和外部通信。NemoClaw就是英偉達給OpenClaw加上的企業安全層。Adobe、Salesforce、SAP等17家企業軟件公司已宣布采用英偉達的Agent Toolkit(智能體開發工具包)。
路線圖方面,英偉達預告了2028年上市的下一代Feynman架構,首次同時支持銅纜和CPO(將光通信元件直接集成到芯片上的技術)兩種互連方式。
今年也是CUDA(英偉達開發的GPU通用計算平臺,被視為英偉達軟件生態的基石)誕生20周年。據黃仁勛在演講中介紹,英偉達目前60%的業務來自全球前五大云服務商,另外40%分布在主權AI、企業、工業、機器人等各個領域。
在本次GTC大會上,英偉達還宣布了與Uber、比亞迪、吉利、現代、日產、五十鈴在自動駕駛領域的合作。受此消息推動,港股汽車板塊17日集體走強,吉利汽車(00175.HK)盤中一度漲超5%,最終收漲4.55%。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.