在AI加速滲透各行業的背景下,芯片架構設計也隨著需求開始不斷變革。
據韓媒ETNews報道,英偉達已著手計劃將部分GPU功能集成到基礎裸片中,這種"嵌入式GPU"的構想類似我們常見的集成顯卡,但封裝從CPU變成了內存。如果一切順利,這一技術路線很有可能成為突破當前AI算力瓶頸的關鍵突破口。
![]()
當前HBM技術采用"多層DRAM堆疊+基底"的經典架構,基底主要承擔輸入輸出功能。而"嵌入式GPU"方案則通過在HBM基底裸片中集成GPU核心單元,實現計算與存儲的物理層融合。這種設計顯著縮短了數據傳輸路徑,理論上可將AI系統效率提升30%以上。
韓國科學技術院電氣工程系金正浩教授指出:"存儲芯片與計算芯片的界限正在消失,這是半導體技術發展的必然趨勢。"
報道稱,英偉達計劃在2024年量產的HBM4基礎上開發定制化基礎裸片,并將其納入新一代Vera Rubin超級芯片的設計框架。該芯片通過兩顆大尺寸算力芯片與八組HBM4堆棧的協同,實現了單顆GPU 288GB、整板576GB的HBM4內存容量。
不只是英偉達,AMD也在同步推進技術迭代,其最新發布的Instinct MI430X加速卡搭載CDNA架構,支持432GB HBM4內存及19.6TB/s帶寬,有望成為AI算力領域的又一里程碑。
當然,"嵌入式GPU"架構目前來說仍面臨多重技術挑戰。
首先是物理空間的制約,受限于TSV(硅通孔)堆疊結構,可用于集成GPU核心的裸片面積十分有限;其次是電源分配難題,高功耗的GPU單元如何在緊湊空間內實現穩定供電;最后是散熱問題,高密度集成下內層芯片的熱管理成為關鍵。某芯片設計公司資深工程師表示:"這些挑戰需要封裝工藝、材料科學和芯片設計的協同突破,但并非不可逾越。"
為了推動新技術的更新,存儲廠商也需要發力。SK海力士與三星已率先行動,前者投資10億美元擴建HBM生產線,后者則在2023年推出HBM3E產品為HBM4E定制化鋪路。行業觀察家指出:"具備先進封裝與邏輯芯片能力的企業將在競爭中占據先機,而僅專注于存儲模組的傳統廠商將面臨轉型壓力。"
從技術演進角度看,2026年將成為AI芯片發展的重要分水嶺。隨著HBM4E向定制化方向演進,存儲芯片與計算單元的融合將加速推進。韓國科學技術院的測算顯示,"存內計算"架構有望使AI訓練效率提升2-3倍,同時降低40%以上的能耗。這不僅將推動超大規模AI模型的普及,更可能催生新的算法優化方向。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.