RISC之父潑下冷水:AI芯片狂熱背后,是被忽視的架構錯配與經濟危機
![]()
David Patterson并非外行批評,他是RISC架構的發明者,這一精簡指令集理念如今支撐著全球99%以上的移動處理器與服務器芯片,同時他也是Google TPU的核心架構設計者,深度參與AI算力硬件的研發與落地。他的判斷,不是對AI前景的否定,而是基于工程實踐與物理規律的理性提醒。在他看來,行業正陷入一個巨大誤區:把訓練場景的硬件邏輯,直接套用到推理場景。過去兩年,幾乎所有AI芯片都以“峰值算力”為核心指標,廠商比拼TOPS數值、顯存容量、互聯帶寬,用訓練芯片的思路做推理,導致大量資源被浪費,成本居高不下。
真正的問題藏在“內存墻”里。大語言模型推理的核心瓶頸不是算力,而是數據搬運效率。Transformer模型的自回歸生成特性,決定了推理過程是低計算密度、高訪存需求的模式。現有高端GPU滿載算力、堆疊HBM的設計,在推理場景下有效算力利用率僅40%-60%,大量晶體管與功耗消耗在數據等待上,而非實際計算。這就像用頂級跑車送快遞,馬力再強,也會被擁堵的道路限制效率,反而造成極高的能耗與成本。Patterson用數據證明,即便擁有最先進的GPU集群,為萬億參數大模型提供推理服務依然在“燒錢”,電力、散熱、折舊成本讓商業化舉步維艱。
![]()
![]()
這場錯配背后,是整個行業的路徑依賴。長期以來,推理硬件都是訓練硬件的“簡化版”,廠商直接砍掉部分算力、降低顯存規格推向市場,從未針對推理做專門的架構設計。而隨著模型從密集型走向MoE稀疏化,推理對內存帶寬、能效比的要求進一步提升,傳統GPU架構的短板被無限放大。更危險的是,資本與市場被峰值算力誤導,盲目追求參數與制程,忽視真實場景的性價比,導致大量算力投入后無法轉化為商業價值,形成“高投入、低回報”的惡性循環。
行業內的理性聲音正在形成共鳴。比爾·蓋茨曾指出,大量資金盲目涌入高端AI芯片,未等回本就因技術迭代淪為閑置資產,重演互聯網泡沫的悲劇;中芯國際、阿里巴巴等企業高層相繼警示,AI數據中心與芯片投資已出現泡沫跡象,全球算力利用率持續低于健康閾值,大量先進芯片處于通電閑置狀態;市場數據同樣印證了危機,部分高端GPU價格較峰值下跌超40%,庫存積壓嚴重,而技術迭代周期縮短至2-3年,投資回收壓力巨大。這些信號與Patterson的觀點不謀而合:AI芯片的問題,不是不夠強,而是不對路。
這對國內AI芯片行業同樣具有重要啟示。過去一段時間,我們同樣陷入峰值算力競賽,部分企業盲目對標海外旗艦產品,忽視端側、邊緣側等真實推理場景。Patterson的提醒告訴我們,彎道超車不應是參數攀比,而是架構換道。在摩爾定律放緩、先進制程受限的背景下,基于RISC-V開放架構,面向推理做深度定制,聚焦存算一體、低功耗設計、場景化優化,反而能走出差異化路線。無論是智能終端、自動駕駛還是工業互聯網,市場需要的不是實驗室里的頂級算力,而是穩定、高效、低成本的落地能力。
AI的未來毋庸置疑,但算力狂歡終會回歸理性。David Patterson這盆冷水,不是阻礙行業前進,而是幫我們卸下冗余的包袱。歷史已經證明,真正推動計算革命的,從來不是盲目堆料,而是回歸本質的架構創新。從RISC戰勝復雜指令集,到DSA領域專用架構崛起,技術演進的規律始終如一:適配場景、解決問題、降低成本,才是長久之道。
![]()
當下的AI芯片行業,需要從“算力崇拜”轉向“價值導向”,從追求紙面參數轉向落地效率。當狂熱褪去,那些真正理解模型需求、扎根場景、堅持架構創新的玩家,才能穿越周期,成為下一代智能時代的硬件基石。這不僅是技術路線的選擇,更是行業能否健康可持續發展的關鍵。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.