![]()
【摘要】在生成式AI浪潮席卷全球的背景下,算力已經成為互聯網公司最重要的戰略資源之一。
圍繞字節跳動的芯片布局,一條“自研+外采”的雙軌路徑正在逐漸清晰:一方面是內部多類AI芯片持續推進研發,另一方面則是對全球高端GPU算力的大規模采購。
相比單純依賴第三方芯片廠商,字節跳動顯然希望在算力層面獲得更多主動權。
但在NVIDIA等芯片巨頭形成強大生態壁壘的情況下,這場自研與外采并行的嘗試,究竟意味著什么?
以下是正文:
01
從內容審核到AI算力:字節跳動自研芯片的真實起點
與許多互聯網公司不同,字節跳動的芯片布局并非直接圍繞大模型展開,而是從內容平臺的推理算力需求切入。
隨著短視頻平臺規模不斷擴大,抖音和TikTok每天需要處理海量視頻、圖片和文本內容,其中相當一部分涉及違規識別、內容審核和風險控制。
這類任務雖然計算密集,但算法相對固定,非常適合通過專用AI推理芯片進行加速。相比通用GPU,自研專用芯片可以在功耗和成本上獲得更高效率。
據業內人士透露,字節目前已經在內部數據中心部署自研AI芯片,用于內容識別和審核等推理任務。
過去平臺主要采用“系統初篩+人工復核”的模式,大量審核工作依賴人工完成,而隨著AI推理能力提升,部分流程已經可以由算法自動處理。
在這一基礎上,字節逐漸擴展芯片研發范圍,目前公司內部推進的芯片項目至少包括AI芯片、服務器CPU、VPU以及DPU等多個方向。
VPU主要用于視頻編解碼和視頻處理加速,這與字節以短視頻為核心的業務結構高度契合;DPU則主要面向數據中心網絡與存儲加速,是云計算基礎設施的重要組件。
與此同時,字節也在探索更通用的計算芯片。相關人士透露,其AI芯片已經迭代至第三代產品,早期版本主要針對特定服務器場景設計,并未采用CUDA架構,而新一代產品則預計做CUDA架構。
在組織層面,字節在芯片領域的投入規模也不小。
據《金融時報》披露,字節跳動2026年計劃投入AI領域的資金高達1600億元,其中850億元將專項用于AI處理器的采購與研發。
不過,從整體技術路線來看,字節目前的自研芯片仍然主要集中在推理側和特定業務場景。在訓練芯片領域,公司依然高度依賴外部供應商。
02
GPU生態的現實壁壘:字節跳動為何仍然大量外采
在大模型時代,訓練算力的需求遠遠超過傳統互聯網應用,這也是字節仍然大量依賴第三方芯片的主要原因。
當前全球AI訓練算力市場幾乎被英偉達所主導。
其H100 GPU等已經成為大型語言模型訓練的核心硬件平臺,而CUDA軟件生態則進一步強化了這一優勢。
H100 Tensor Core GPU提供3958 teraFLOPS的AI性能,更重要的是,它無需修改即可運行整個PyTorch和TensorFlow協議棧。
包括OpenAI、微軟和Meta在內的AI機構,都在大規模使用NVIDIA GPU進行模型訓練。
字節跳動同樣是全球GPU算力的重要采購方,隨著推薦算法、搜索系統以及生成式AI模型規模不斷擴大,公司對高性能計算資源的需求持續增長。其云計算業務火山引擎近年來持續擴建AI算力基礎設施,以支持模型訓練和推理服務。
除了NVIDIA之外,多家芯片廠商也在試圖挑戰GPU市場格局,并在AI訓練與推理市場展開競爭。
其中,AMD近年來在數據中心AI芯片領域加速追趕。
其MI300X架構將CPU和GPU集成在同一封裝上,擁有1530億個晶體管和5.3TB/s的內存帶寬,提供192GB的HBM3內存(比H100多2.4倍)。
MI300系列被視為AMD在AI時代最重要的產品,目標直指NVIDIA的H100市場。
與此同時,英特爾則通過Gaudi系列AI加速器切入這一市場。
Gaudi2與Gaudi3芯片強調成本效率,并采用開放軟件棧SynapseAI,試圖在大型AI集群部署中提供更具性價比的替代方案。與傳統GPU相比,Gaudi架構更加針對深度學習訓練場景進行優化。
![]()
圖源:騰訊新聞
在中國市場,AI算力芯片競爭同樣日趨激烈。
華為推出昇騰系列AI處理器,其中昇騰910被廣泛應用于國產AI訓練平臺。根據新浪財經,業界估測910C在FP16精度下的單卡算力能達到800 TFLOPS左右,大概是英偉達H100 芯片(2022年推出)的80%。
寒武紀則推出思元系列AI芯片,主要面向云端推理與訓練服務器市場,2022-2024年,其MLU370-X8及思元590芯片已與智象未來、百川智能等大模型客戶適配,進入生成式AI算力供應鏈。
與此同時,多家創業公司也在布局AI算力賽道。
壁仞科技推出BR100等GPU產品,試圖在通用AI計算領域挑戰傳統GPU架構;燧原科技則開發邃思系列AI芯片,重點面向數據中心訓練與推理市場。
在這一競爭格局下,全球AI芯片市場逐漸形成多條技術路線:既有NVIDIA主導的CUDA GPU生態,也有AMD、Intel等廠商推動的替代方案,同時中國廠商則試圖構建本土AI算力體系。
不過,與這些芯片廠商不同,字節自研芯片并不追求通用市場,而是更多服務于內部業務。
這種模式意味著字節不必從一開始就挑戰NVIDIA的生態體系,而可以在推理和特定場景中逐步積累技術能力。
因此,在未來相當長一段時間內,“訓練依賴GPU、推理逐步自研”很可能仍然是字節跳動的主要算力策略。
03
全球互聯網公司造芯潮:字節跳動處在什么位置
字節跳動并不是唯一嘗試自研芯片的互聯網公司。
事實上,過去十多年間,隨著云計算與人工智能的發展,全球大型科技公司幾乎都在布局自研AI芯片,希望在關鍵算力資源上獲得更多控制權。
最早進行這一嘗試的是谷歌。早在2016年,谷歌就推出了專門用于機器學習任務的TPU(Tensor Processing Unit),并持續迭代至TPU v4、TPU v5等多個版本。
TPU是谷歌為加速機器學習任務而設計的專用集成電路(ASIC),TPU的成功不僅顯著降低了其內部AI計算成本,也證明互聯網公司完全有能力在特定場景設計高性能AI芯片。
隨后,亞馬遜也在其云計算平臺AWS中推出了多款自研AI芯片。
其中Inferentia主要面向機器學習推理任務,而Trainium則面向大規模生成式AI模型訓練與推理。這些芯片被廣泛部署在AWS云服務器中,以降低AI計算成本并提升平臺競爭力。
在中國市場,互聯網公司同樣開始探索自研算力體系。
阿里巴巴旗下平頭哥半導體推出含光系列AI芯片,其中含光800曾被應用于阿里云數據中心的視頻處理與推薦系統中。
通過自研芯片,阿里希望在電商搜索及云計算AI服務等業務中降低算力成本。
從全球經驗來看,互聯網公司造芯往往并非只是為了成為傳統意義上的半導體廠商,而是為了優化自身核心業務的算力結構。
隨著AI模型規模持續擴大,算力成本逐漸成為平臺運營的重要變量,通過自研芯片,互聯網公司可以在部分場景中降低成本,同時減少對外部供應商的依賴。
但與此同時,芯片產業本身具有極高技術門檻,從架構設計到制造工藝,再到軟件生態建設,每一個環節都需要長期積累。
因此,從全球范圍來看,互聯網公司自研芯片往往與第三方芯片廠商形成互補關系:通用訓練芯片依賴成熟供應商,而特定場景則通過定制芯片實現效率優化。
對于字節跳動而言,這種模式或許也是最現實的路徑。
04
尾聲
芯片從來不僅是簡單的硬件采購問題,更象征了算力主權與產業話語權。
字節跳動選擇在自研與外采之間尋找平衡,本質上是一種風險分散與能力積累的策略。
當AI模型規模繼續膨脹,算力成為真正的生產資料,誰能在生態鎖定與自主可控之間找到最佳區間,誰就可能掌握未來主動權。
字節的芯片棋局遠未落子成局,真正的拐點,也許會在下一代架構成熟時顯現。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.