![]()
![]()
(亞馬遜AWS CEO馬特·加曼在re:Invent 2025發(fā)布Trainium 3)
在單卡性能不足的情況下,亞馬遜AWS通過提升服務(wù)器集群算力、帶寬的方式縮小了和英偉達(dá)的差距
文|《財(cái)經(jīng)》研究員 吳俊宇
編輯|劉以秦
作者按:re:Invent是全球最大云廠商亞馬遜AWS一年一度的戰(zhàn)略和技術(shù)大會(huì)。re:Invent 2025于12月1日-5日在美國拉斯維加斯召開。我們?cè)诂F(xiàn)場(chǎng),記錄美國云計(jì)算行業(yè)這一年最新的變化。
以下是正文:
美國西部時(shí)間12月3日,全球最大云計(jì)算廠商亞馬遜AWS在re:Invent 2025發(fā)布了新款A(yù)I芯片和新款自研模型。
亞馬遜AWS CEO(首席執(zhí)行官)馬特·加曼(Matt Garman)宣布,亞馬遜AWS自研的AI芯片Trainium 3已經(jīng)上線,這是一款3nm(納米)工藝制程的芯片。亞馬遜AWS下一代AI芯片Trainium 4也在研發(fā)設(shè)計(jì)階段。
亞馬遜AWS還發(fā)布了Amazon Nova 2系列的自研模型。其中包括Lite(輕量化版)、Pro(專業(yè)版)、Sonic(聲音模型)、Omni(多模態(tài)推理模型)這四款模型。目前Amazon Nova系列已有數(shù)萬企業(yè)客戶,包括海信、印孚瑟斯(印度第二大IT企業(yè))等。
![]()
亞馬遜AWS已部署百萬枚自研AI芯片
馬特·加曼提到,目前亞馬遜已經(jīng)部署了超過100萬枚Trainium系列AI芯片。Trainium芯片每年為亞馬遜AWS帶來了數(shù)十億美元的收入。
部署這些芯片需要龐大的電力資源。亞馬遜AWS過去12個(gè)月新增了3.8GW(GW,即吉瓦是功率單位。1GW算力集群可容納20萬枚英偉達(dá)GB200芯片)算力。亞馬遜AWS目前的算力電力容量是2022年的兩倍,2027年還將再次翻倍。
Trainium 3每兆瓦電力能產(chǎn)生的Token(詞元,大模型算力計(jì)量單位,一個(gè)Token可以是單詞、標(biāo)點(diǎn)、數(shù)字、符號(hào)等)數(shù)量是上一代芯片的五倍。亞馬遜AWS公布的信息顯示,Trainium 3與其他產(chǎn)品相比,訓(xùn)練成本最多可降低50%。
亞馬遜發(fā)布的路線圖顯示,亞馬遜AWS下一代AI芯片Trainium 4在FP4(一種數(shù)據(jù)精度,比FP8、FP16更節(jié)省算力)計(jì)算精度下的性能相比Trainium 3將提升6倍以上。
Trainium系列芯片不直接對(duì)外銷售,而是通過云服務(wù)的方式提供給企業(yè)客戶。目前使用Trainium系列芯片的企業(yè)包括大模型創(chuàng)業(yè)公司Anthropic、數(shù)據(jù)庫公司databricks等企業(yè)。其中Anthropic 2025年底將使用超過100萬個(gè) Trainium 2的算力集群,來運(yùn)行它的Claude系列模型。
![]()
亞馬遜AWS表示,搭載Trainium 3的Trn3 UltraServer服務(wù)器,集成了144枚芯片,總算力高達(dá)362PFlops(每秒浮點(diǎn)運(yùn)算次數(shù))。它的整機(jī)性能甚至超過了英偉達(dá)的旗艦芯片服務(wù)器Blackwell GB200 NVL72。但按單卡性能計(jì)算,Trainium 3僅為GB200的56%。
但這是亞馬遜用系統(tǒng)堆料彌補(bǔ)單卡差距。在單卡性能不足的情況下,亞馬遜AWS通過提升服務(wù)器集群算力、帶寬的方式縮小了和英偉達(dá)的差距。
![]()
(Trainium3 UltraServer服務(wù)器機(jī)柜)
一位亞馬遜AWS人士曾對(duì)《財(cái)經(jīng)》表示,從2021年自研AI芯片至今,亞馬遜AWS已經(jīng)堅(jiān)持了五年。為了降低算力成本,減少對(duì)英偉達(dá)的替代,這個(gè)戰(zhàn)略不可能動(dòng)搖。
亞馬遜AWS的自研芯片戰(zhàn)略可以追溯到2018年。當(dāng)時(shí)在英特爾、AMD的CPU(中央處理器)占主流的階段,亞馬遜AWS就開始自研Graviton系列CPU芯片。目前Graviton系列芯片歷經(jīng)7年,已發(fā)展至第四代。
近三年,Graviton系列芯片已經(jīng)成功替代英特爾、AMD,在亞馬遜AWS新增CPU算力中占比超過50%(詳見。Graviton系列芯片的客戶甚至包括蘋果、全球最大的ERP(企業(yè)資源管理)軟件企業(yè)SAP等公司。
![]()
云廠自研芯片,替代英偉達(dá)
亞馬遜AWS等云廠商自研AI芯片的一個(gè)重要目的是,降低芯片的TCO(總擁有成本)。
截至2025年,英偉達(dá)在全球AI芯片市場(chǎng)占據(jù)超過60%的市場(chǎng)份額。2025年英偉達(dá)的綜合毛利率69%。這意味著,亞馬遜AWS、微軟Azure、谷歌GCP等云廠商每采購一枚英偉達(dá)的芯片,60%以上的成本都變成了英偉達(dá)的利潤(rùn)。
一位資深算法工程師今年10月曾對(duì)《財(cái)經(jīng)》表示,英偉達(dá)在AI芯片市場(chǎng)賺取了超額利潤(rùn)。目前大部分科技公司都不想完全依賴英偉達(dá)的AI芯片。其中一些科技公司選擇了ASIC(專用集成電路)技術(shù)路線,這可以根據(jù)自己的業(yè)務(wù)特點(diǎn)高度定制AI芯片。這為替代英偉達(dá)提供了可能性。
云廠商的自研芯片一旦實(shí)現(xiàn)量產(chǎn),它的邊際成本會(huì)逐漸降低,逐漸接近臺(tái)積電的代工成本。在理想情況下,甚至可以只用英偉達(dá)同等規(guī)格芯片三分之一的價(jià)格獲得自研芯片。這也是亞馬遜、谷歌、阿里巴巴、百度都在自研AI芯片的重要原因。
今年11月28日,全球半導(dǎo)體分析和研究機(jī)構(gòu)SemiAnalysis在一份有關(guān)谷歌TPU v7(張量處理單元,即谷歌自研的AI芯片)芯片的成本分析報(bào)告中詳細(xì)計(jì)算了谷歌TPU v7的運(yùn)行成本。
谷歌內(nèi)部使用的TPU v7運(yùn)行成本為1.28美元/小時(shí),只有英偉達(dá)GB200(英偉達(dá)在銷旗艦芯片)2.28美元/小時(shí)的56%。谷歌在云上對(duì)外服務(wù)客戶時(shí)需要加上利潤(rùn)空間,屆時(shí)TPU v7的運(yùn)行成本僅為1.6美元/小時(shí)的成本,依舊只有英偉達(dá)GB200的51%。
![]()
目前,成功自研AI芯片并規(guī)模化替代英偉達(dá)的云廠商包括亞馬遜、谷歌。谷歌的TPU的出貨量甚至比亞馬遜的Trainium系列還要高。
摩根士丹利2025年11月一份名為《全球AI供應(yīng)鏈更新》的研報(bào)稱,谷歌TPU系列芯片在2023年—2025年的出貨量分別是50萬枚、240萬枚、175萬枚。該報(bào)告預(yù)測(cè),谷歌在2026年TPU出貨量將達(dá)到300萬枚。
亞馬遜Trainium系列超過100萬枚的部署量,谷歌TPU系列超過200萬枚/年的部署量,意味著這兩家云廠商已經(jīng)在英偉達(dá)占據(jù)主導(dǎo)的市場(chǎng)中,撕開了一道口子。
2025年,英偉達(dá)AI芯片年出貨量超過600萬枚。今年10月29日,英偉達(dá)創(chuàng)始人黃仁勛曾在GTC華盛頓特區(qū)峰會(huì)披露英偉達(dá)的芯片銷量情況。
上一代Hopper系列(H100、H200、H20系列),2023年-2025年整個(gè)生命周期(約為2023年初-2025年10月)共交付了400萬枚GPU(圖形處理器)。
英偉達(dá)目前主力旗艦芯片Blackwell系列(GB200、GB300)量產(chǎn)的三個(gè)半—四個(gè)季度(約為2024年10月中旬-2025年10月),共交付了600萬枚。接下來的五個(gè)季度,英偉達(dá)還有2000萬枚Blackwell和Rubin(英偉達(dá)下一代旗艦芯片)系列芯片需要交付。
2025年9月,高盛曾在研報(bào)中預(yù)估,2025年-2027年全球AI芯片需求量分別為1000萬顆、1400萬顆、1700萬顆。其中,英偉達(dá)的GPU芯片市場(chǎng)占比將從62%降至55%。
![]()
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.