谷歌正式對(duì)英偉達(dá)亮劍了。
最近谷歌成功挖了英偉達(dá)墻角,說服一家英國小型云服務(wù)商Fluidstack轉(zhuǎn)用谷歌的TPU。
這單生意沒多大,1年最多幾億收入(本文貨幣單位如無強(qiáng)調(diào)均為美元),卻讓谷歌大漲5000億,市值正式突破3萬億,相當(dāng)于8個(gè)工商銀行。(截至2025.09.15)
為什么一單小生意會(huì)撬動(dòng)這么大市值呢?因?yàn)檫@意味著谷歌十年磨一劍的TPU要利刃出鞘了,出鞘第一劍,先斬皮衣男,谷歌TPU將對(duì)英偉達(dá)GPU構(gòu)成重大威脅。
TPU是什么?跟GPU有什么區(qū)別?TPU對(duì)谷歌、對(duì)英偉達(dá)乃至對(duì)整個(gè)AI產(chǎn)業(yè)又意味著什么?
嘉賓商學(xué)新科技案例100為你揭秘。
1、CPU、GPU與TPU
TPU,Tensor Processing Unit,又叫張量處理器;跟GPU一樣,它本質(zhì)上不是某一類芯片,而是公司為了彰顯自家產(chǎn)品很特別、很厲害而起的名。就像AD鈣奶并不是一類奶,只是娃哈哈的一款產(chǎn)品。TPU其實(shí)是谷歌為自己的深度學(xué)習(xí)框架TensorFlow設(shè)計(jì)的專用芯片。
又來了一個(gè)專業(yè)詞匯,專用芯片,ASIC,Application Specific Integrated Circuit。
TPU就是谷歌版的ASIC,像德儀、博通,都是頂尖的ASIC大廠。
那么CPU、GPU、ASIC又有什么區(qū)別呢?
CPU是通用計(jì)算,各種指令、各種操作都能做,但沒有特長;GPU是并行計(jì)算或者叫加速計(jì)算,一開始是專門做圖像渲染的,后來被用來做AI深度學(xué)習(xí),不管你是做通用模型還是垂直模型或者Agent,AI相關(guān)的都能用;而ASIC是根據(jù)用途來給你私人定制,像谷歌的TPU,就是專門為TensorFlow定制的。
這就像公司里的不同角色,CPU是萬金油、多面手,什么事都可以交給他,辦不砸,但也別指望他出彩;GPU是挖來的大廠高管或者專家,絕對(duì)夠?qū)I(yè),但成本高,跟你們公司的適應(yīng)性也有問題;而ASIC是公司培養(yǎng)的985管培生,名校畢業(yè)底子好,還是一張白紙進(jìn)來的,隨你怎么畫,肯定是最適合公司的。
2、谷歌十年磨一劍
說回谷歌,2013年,谷歌發(fā)現(xiàn)用語音搜索和語音識(shí)別的人越來越多了,他們算了筆賬,如果用戶每人每天用3分鐘的語音搜索和識(shí)別,那谷歌的算力遠(yuǎn)遠(yuǎn)不夠用,必須再建一個(gè)數(shù)據(jù)中心。
谷歌膀大腰圓,倒是不差錢,但是這樣下去不是辦法啊,要是以后每人每天用30分鐘呢?難道再建10個(gè)數(shù)據(jù)中心嗎?
沒這么過日子的,得精打細(xì)算。
于是,谷歌打上了TPU的主意。
前面說了,TPU屬于ASIC,可以私人定制,需要什么功能就給你做什么功能。
而在此之前,他們用的是英偉達(dá)GPU,算力確實(shí)大,但有點(diǎn)浪費(fèi);相比之下,TPU小而精準(zhǔn),從大水漫灌改成針孔滴灌。
具體來說,它采用了軟硬件協(xié)同的“提前編譯”策略。傳統(tǒng)芯片需要高能耗的緩存來應(yīng)對(duì)不可預(yù)測的數(shù)據(jù)訪問;而TPU是定制的,編譯器在程序運(yùn)行前就規(guī)劃好了所有數(shù)據(jù)的路徑,這樣就不再需要復(fù)雜的緩存了,大大提高了效率。
2015年,谷歌第一代TPU問世,搭載在谷歌旗下DeepMind的AlphaGo上,第二年AlphaGo打敗李世石,TPU功不可沒。之后TPU不斷進(jìn)化,一直為谷歌的AI戰(zhàn)略效力。現(xiàn)在谷歌的大模型Gemini主要就是用TPU訓(xùn)練的,算力成本只有OpenAI使用GPU成本的1/5,簡直不要太香。
![]()
今年,谷歌TPU已經(jīng)進(jìn)化到第七代了,代號(hào)“Ironwood”。
Ironwood的整體性能跟英偉達(dá)的看家產(chǎn)品B200不相上下了,最高配集群有9216個(gè)液冷芯片,峰值算力是世界上最大的超級(jí)計(jì)算機(jī)El Capitan的24倍以上。
在此之前,谷歌TPU都是自己消化。70%-80%用在DeepMind、Gemini等自家業(yè)務(wù)上,剩下的也只租不賣。
而現(xiàn)在,經(jīng)歷十年打磨后,谷歌終于要賣TPU了。預(yù)計(jì)出貨量2025年250萬片,2026年超過300萬片。
敢報(bào)這么大的數(shù),誰給谷歌的勇氣?他自有辦法。就是挖墻腳。
比如開頭提到的Fluidstack,本來人家用英偉達(dá)GPU用的好好的,谷歌找上門來說:別光用他們的,哥哥家的TPU也不錯(cuò)!你要不把數(shù)據(jù)中心擴(kuò)建一下,裝上哥哥的TPU?Fluidstack表示:擴(kuò)建要租新場地,我沒錢。谷歌給出了一個(gè)無法拒絕的理由:這是32億美元,只要聽哥的,你就拿去花吧。
不只是Fluidstack,包括AI獨(dú)角獸Anthropic,最近被發(fā)現(xiàn)正在招聘TPU內(nèi)核工程師;馬斯克旗下的X-AI也表現(xiàn)出采購TPU的興趣。
3、血拼英偉達(dá)
甚至有傳言說,谷歌可能要讓TPU業(yè)務(wù)獨(dú)立出來,跟英偉達(dá)直接拼刺刀。
花旗銀行分析師預(yù)測,因?yàn)門PU的競爭,預(yù)計(jì)2026年英偉達(dá)GPU銷售額要減少120億。
當(dāng)然,英偉達(dá)的護(hù)城河不只是算力,更是整個(gè)CUDA生態(tài)。經(jīng)過近20年的建設(shè),CUDA已經(jīng)聚集了500多萬開發(fā)者,如果不用英偉達(dá)GPU,就要離開CUDA,把代碼遷到別的平臺(tái),這意味著要重寫30%-50%的核心邏輯(例如內(nèi)存管理、并行優(yōu)化),同時(shí)面臨30%-60%的性能損失,遷移成本太大了。
但谷歌也是有備而來,他構(gòu)建了能在TPU上運(yùn)行的高性能計(jì)算Python庫JAX,還發(fā)布了模型流水線解決方案“Pathway”,外部開發(fā)者用上Pathway,不需要重新設(shè)計(jì)就能開發(fā)Gemini等大模型。過去半年,圍繞TPU的開發(fā)者活躍度激增96%。
這對(duì)英偉達(dá)來說是不可接受的威脅。
野村證券預(yù)計(jì),到2026年ASIC總出貨量會(huì)超過GPU,而TPU是目前最成熟的ASIC。
谷歌十年磨一劍,利刃已出鞘,接下來就看老黃這塊盾牌的成色了。
出品 | 嘉賓商學(xué)
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.