![]()
HBM憑什么撐起萬億市場?
數萬億美元的人工智能基建熱潮,正以遠超市場最初預期的方式,給半導體價值鏈帶來巨大壓力。此前,GPU始終是行業熱議的核心,但隨著大模型參數規模持續擴張,數據傳輸逐漸成為性能限制的關鍵,半導體行業的瓶頸正從計算端轉向內存端。在超大規模數據中心內,“內存墻”已成為制約人工智能應用運行速度與規模化擴展的核心障礙。
這一限制在高帶寬內存(HBM)領域體現得最為突出。作為先進GPU的核心配套組件,HBM堪稱AI芯片的“性能命脈”——沒有它的支撐,即便是算力最強的AI芯片,也會陷入性能受限的窘境。繼2025年內存價格同比飆升246%后,各大供應商的庫存已基本售罄,部分訂單交付周期甚至排至2026年。由此,內存廠商正站在結構性需求增長、產能供應受限、定價權空前強化的三重機遇交匯點,迎來前所未有的發展窗口期。
這一產業變局揭示了一個關鍵趨勢:人工智能硬件的價值版圖,絕非GPU一己之力可以包攬,其增長紅利正加速向更廣闊的半導體器件領域滲透。GlobalX人工智能半導體與量子ETF(CHPX)的布局邏輯,正是瞄準這一趨勢,為投資者提供參與人工智能硬件生態系統發展的機會。
人工智能半導體領域的支出正在加速增長并不斷擴大
人工智能半導體行業的增長勢頭依舊強勁。2025年,全球芯片銷售額同比增長22%;預計2026年將再攀新高,同比增幅達26%,市場規模有望突破9750億美元。其中,生成式人工智能芯片是當之無愧的增長引擎,2026年其收入預計將達到5000億美元,占行業總銷售額的比重接近一半。
![]()
這一爆發式增長的背后,是超大規模數據中心運營商的資本支出持續加碼——這一投入規模,有望躋身企業發展史上最大規模的基建項目之列。到2026年,超大規模數據中心運營商的資本支出或將逼近6500億美元,其中相當大一部分將流向人工智能數據中心的建設。英偉達的數據也印證了這一趨勢:超大規模數據中心運營商正以每周約7.2萬塊的速度部署GPU,創下該公司GPU產品歷史上最快的產能爬坡紀錄。
兩大核心因素,正推動人工智能行業的發展周期持續延長。其一,是人工智能的核心需求從模型訓練向大規模推理轉變,推理場景的廣泛落地將催生海量硬件需求;其二,是行業正朝著緊湊化的年度硬件升級節奏邁進,產品迭代速度顯著加快。英偉達的VeraRubin平臺就是典型案例,該平臺計劃于2026年下半年正式發布,其推理性能預計將較前代產品提升約5倍,后續架構的升級更有望帶來跨越式的性能突破。出貨量趨勢也與這一判斷相契合:英偉達預計2025年Blackwell系列GPU出貨量將達520萬塊,隨著Rubin平臺逐步量產,2026年出貨量將增至570萬塊。
創紀錄的人工智能支出為整個芯片堆棧創造了機遇
行業內有一個關鍵的成本分配邏輯:每投入1美元用于人工智能處理芯片,就會有額外1美元流入先進封裝、電源管理、冷卻系統、網絡設備和內存等周邊配套組件。以英偉達GB200NVL72系統為例,一套完整的系統不僅需要搭載72顆BlackwellGPU和36顆GraceCPU,還需配備專用的高速網絡基礎設施、芯片級液冷散熱系統,以及高達13.4TB的高帶寬內存。隨著這類系統的部署規模不斷擴大,行業的核心瓶頸已從算力處理能力,轉向硬件連接性與數據訪問效率。
高速網絡作為GPU與服務器集群互聯互通的關鍵,相關市場支出正快速增長。數據顯示,數據中心網絡市場支出預計將從2025年的200億美元,增長至2030年的750億美元,年均復合增長率高達30.2%。
但如果說高速網絡解決的是系統級連接問題,那么內存帶寬與容量,則直接決定了這些系統大規模運行的效率上限。
內存是當今的關鍵瓶頸
無論GPU或專用集成電路(ASIC)的算力多么強大,大型語言模型的實際運行性能,最終都取決于數據吞吐量與數據傳輸速度。這些動輒包含數十億甚至數萬億參數的大模型,對內存帶寬的需求遠超傳統內存架構的承載極限。為突破這一桎梏,高帶寬內存(HBM)應運而生。
作為一種特殊的先進動態隨機存取存儲器(DRAM),HBM能為GPU和AI加速器提供超高數據傳輸速度。其核心優勢在于垂直堆疊的芯片架構——通過將多顆內存芯片垂直堆疊,并緊密靠近處理器封裝,HBM實現了帶寬與能效的雙重躍升,性能遠超傳統內存產品。
目前主流的HBM3E標準,單堆棧內存帶寬可達1.2TB/s;而下一代HBM4產品已進入量產與早期出貨階段,單堆棧帶寬將突破2TB/s,同時功耗進一步降低。這一技術路線圖的核心邏輯,是在更小的物理空間內實現數倍于前代的帶寬提升,從而滿足下一代人工智能工作負載的性能需求。
從產業價值來看,HBM已徹底擺脫了傳統內存“價格波動劇烈的大宗商品”屬性,蛻變為高利潤的核心戰略資產。如今的HBM行業,正進入一個全新的發展階段:產能全線售罄、廠商定價權空前強化、未來數年需求可預測性極高。值得一提的是,HBM的成本約為標準DRAM的5倍,其定價通常通過長期協議鎖定,這讓生產商得以有效規避現貨市場價格波動的風險。
HBM市場蓄勢待發,即將迎來爆發式增長
伴隨人工智能領域整體支出的加速擴容,HBM市場正經歷跨越式發展,且這一增長勢頭預計將持續。數據顯示,全球HBM市場支出預計2026年同比增長58%,規模達到546億美元;后續將以年均約42%的復合增長率攀升,到2028年市場規模有望逼近1000億美元。按照這一增速,HBM市場規模將比此前行業預測提前兩年突破千億美元大關,并在2024年就超過整個DRAM市場的規模。
HBM的爆發將直接推動存儲器半導體總收入增長,預計2026年該領域收入將突破4400億美元,同比增幅達30%。到2030年,隨著人工智能工作負載的持續增加,存儲器在半導體價值鏈中的地位將愈發重要,市場份額也將進一步提升。
支撐內存解決方案持續增長的核心因素有三:
- 從訓練到推理的需求轉變:人工智能應用從模型訓練階段轉向大規模推理部署,將直接拉動內存需求的放量增長;
- 智能體AI系統的技術迭代:具備多步驟推理能力的智能體(Agent)系統逐漸落地,這類應用需要持久的內存上下文支撐,進一步推高內存使用需求;
- 自主AI計劃的全球擴張:全球范圍內的自主人工智能項目,正在傳統超大規模數據中心渠道之外,開辟全新的內存需求市場。
![]()
高帶寬內存領域的領導者
隨著內存瓶頸問題的解決,純HBM廠商將從中受益。
![]()
SK海力士憑借早期產品創新和規模化生產能力,被公認為HBM領域的先行者。目前,該公司占據全球HBM收入57%的份額和全球出貨量的62%。該公司進一步鞏固了其領先地位,于2024年初推出首款HBM3E,并于2025年9月推出HBM4。HBM4的引腳傳輸速度超過10Gbps,單堆疊帶寬超過2TB/s,與HBM3E相比,性能提升60%,能效提升40%。
這種領先優勢已體現在公司基本面中,預計2025年營收將同比增長近45%,達到約680億美元,營業利潤將幾乎翻一番,達到約330億美元。
SK海力士作為英偉達的主要HBM供應商,其地位是推動業務增長的關鍵因素。該公司已獲得英偉達2026年Rubin平臺HBM訂單的三分之二以上。管理層預計需求不會放緩,這得益于多季度訂單承諾以及到2026年強勁的訂單可見性。為滿足預計到2030年每年增長超過30%的需求,該公司正在提高HBM4的產能,并計劃將DRAM產能提高至多八倍。
三星電子2025Q4在全球DRAM內存市場的銷售額占比升至36.6%,而SK海力士的市占則是32.9%,這意味著三星電子在2025Q1丟掉“第一大DRAM廠”榮譽后的一年內奪回了該頭銜。三星電子正加速推進下一代高帶寬內存布局。在HBM4今年正式進入量產的同時,三星已將目光投向更遠一代產品——計劃將HBM5基片工藝從4納米提升至2納米,并以1dDRAM作為HBM5E的核心堆疊存儲。與此同時,HBM4將占據今年三星HBM總出貨量的逾半數,整體HBM產能較去年增長超過三倍。三星電子還計劃在2026年投入超過110萬億韓元(約合733億美元)用于資本支出和研發,這反映出其正在擴大存儲芯片產能、并加大對人工智能(AI)等領域的探索。該公司在一份簡短聲明中表示,這項投資將用于鞏固其在AI技術領域的領先地位。
作為美國唯一一家大規模生產DRAM和NAND閃存的制造商,美光科技在全球內存供應鏈中占據著獨特的地位。過去幾年,美光科技通過在尖端制程節點上實現與三星和SK海力士的制造水平持平,并與超大規模數據中心和人工智能硬件制造商建立了深入的設計合作,縮小了曾經與這兩家公司之間存在的巨大技術差距。
值得注意的是,美光2026財年的全部HBM供應均已簽訂價格和數量協議。為了實現22%至23%的HBM市場份額目標,美光將2026財年的資本支出從之前的180億美元提高到200億美元,用于產能擴張,其中包括在愛達荷州建設一座由《芯片創新與創新法案》(CHIPSAct)支持的專用HBM工廠。
*聲明:本文系原作者創作。文章內容系其個人觀點,我方轉載僅為分享與討論,不代表我方贊成或認同,如有異議,請聯系后臺。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.