![]()
過去一年,如果你關(guān)注通信行業(yè)的新聞,大概很難躲過“AI-RAN”這個詞。英偉達和軟銀牽頭成立的AI-RAN聯(lián)盟,T-Mobile西雅圖的實驗室測試,Indosat在印尼完成的AI通話演示——一連串的動態(tài)似乎在傳遞一個信號:GPU即將大規(guī)模進入基站,AI正在從“網(wǎng)絡上層”下沉到“無線底層”。
但如果你有機會和運營商的朋友聊一聊,會發(fā)現(xiàn)他們的態(tài)度遠沒有發(fā)布會舞臺上那么激動。興奮是有的,但更多的是審慎、觀望,甚至是一絲不易察覺的疑慮:基站里真的需要塞進一塊GPU嗎?這筆賬到底怎么算?AI-RAN究竟是一場技術(shù)革命,還是又一輪由芯片廠商主導的“競賽”?
01
基站里的“聰明”與“不聰明”
要理解AI-RAN到底想做什么,得先回到無線接入網(wǎng)這個老問題上。
通信行業(yè)一直有一個心照不宣的事實:在整個移動網(wǎng)絡里,無線接入網(wǎng)(RAN)是最“不聰明”的那一段。核心網(wǎng)早就虛擬化、云化了,各種開源平臺和通用服務器跑得風生水起。但走到基站這一層,情況完全不同——專用芯片、封閉接口、定制化硬件,像一個黑盒子,外面的人進不去,里面的數(shù)據(jù)出不來。
這聽起來像個技術(shù)問題,但歸根結(jié)底是個經(jīng)濟問題。基站部署量太大了,一個中等規(guī)模的運營商可能擁有幾十萬個站點。在這個量級上,任何一點成本波動都會被放大到驚人的數(shù)字。專用芯片雖然不夠靈活,但它的功耗、成本、穩(wěn)定性經(jīng)過了幾十年的極致優(yōu)化,是運營商能夠接受的“最優(yōu)解”。
但問題也隨之而來。當AI開始滲透到網(wǎng)絡的每一個角落,當運營商希望通過智能化來優(yōu)化覆蓋、提升容量、降低能耗時,RAN成了那個最難下手的環(huán)節(jié)。你可以在核心網(wǎng)里隨便部署AI服務器,可以給運維中心配上一堆GPU來做網(wǎng)絡優(yōu)化,但走到基站門口,路就斷了。
AI-RAN的野心,就是想打通這最后一公里。但需要厘清的是,AI與RAN的關(guān)系其實是雙向的。業(yè)界通常用兩個詞來定義這種關(guān)系:一個是“AI for RAN”,即用AI來優(yōu)化無線接入網(wǎng)的性能——信道估計、波束管理、負載均衡,這些都是AI賦能網(wǎng)絡的典型場景;另一個是“RAN for AI”,即把基站本身變成AI算力的提供者,讓遍布各地的站點成為分布式推理的基礎設施。英偉達的邏輯很簡單:與其讓AI在基站外面轉(zhuǎn)悠,不如直接把它請進去,讓基站自己變聰明。
![]()
聽起來很美好。但基站真的需要那么聰明嗎?
02
GPU進基站,誰在買單
這就要算一筆賬了。
先看成本。一塊適合基站的GPU,價格不是小數(shù)。功耗也不是小數(shù)。如果要在幾十萬個基站里全部部署,那將是一筆天文數(shù)字的資本開支。而運營商現(xiàn)在的日子并不好過,流量增長但收入不增,是過去十年全球電信行業(yè)的普遍困境。在這種背景下,讓運營商掏錢給每個基站升級GPU,難度可想而知。
三星電子美國公司網(wǎng)絡事業(yè)部戰(zhàn)略與營銷副總裁Alok Shah表示:“業(yè)界正在謹慎評估與在基站中引入GPU相關(guān)的總擁有成本模型和商業(yè)案例。迄今為止,在站點層面全面轉(zhuǎn)向GPU計算在資本支出和運營成本上都面臨挑戰(zhàn),但該領域的創(chuàng)新很活躍。我們可能會發(fā)現(xiàn),在未來幾年內(nèi),會有一部分站點的部署在經(jīng)濟賬上是可行的。”換句話說,賬還沒算清楚,誰也不敢輕易拍板。
再看必要性。基站真的需要GPU嗎?還是說,現(xiàn)有的CPU已經(jīng)夠用了?這其實是一個被忽略的問題。新一代的x86 CPU,性能早已不可同日而語。很多AI推理任務,尤其是輕量級的、對時延要求不高的任務,CPU完全能應付。如果CPU能解決,為什么要多花一筆錢去買GPU?
一位國內(nèi)運營商的專家說得更直白:如果說算力一定要放到基站里,而且一定要放GPU,我打個問號。成本太高,運營商根本接受不了。而且,把算力鎖定在基站里,反而限制了對算力的靈活調(diào)度——邊緣節(jié)點、匯聚機房、中心云,算力應該是一個可以動態(tài)調(diào)配的資源池,而不是固化在每一個站點。但也有不同觀點認為,按演示數(shù)據(jù)推算,單站閑置算力若按云計算市場價的70%出租,五年內(nèi)就能收回30%的基站建設成本。
這些話背后,折射出一個更本質(zhì)的分歧:AI-RAN究竟應該怎么部署,是“全量升級”還是“按需引入”?英偉達作為芯片廠商,當然希望GPU鋪得越廣越好。但運營商要考慮的是,到底哪些場景真正需要基站級別的AI能力。
03
哪些場景“非AI不可”
如果說5G時代,AI還算是個“加分項”,那么到了6G,情況可能會發(fā)生變化。通信行業(yè)普遍認為,6G網(wǎng)絡將面臨一個根本性的挑戰(zhàn):網(wǎng)絡的復雜程度將達到“超越人類規(guī)模”的閾值,人腦已經(jīng)無法實時管理。屆時,AI不再是可選項,而是必選項。
這不是危言聳聽。5G時代,基站已經(jīng)有了大規(guī)模MIMO天線,波束賦形的參數(shù)配置已經(jīng)復雜到需要算法輔助。到了6G,頻段更高、天線更多、業(yè)務更雜,靠人工腳本和預設策略去管理,幾乎不可能。換句話說,未來的網(wǎng)絡必須是“自智”的——自己感知、自己決策、自己優(yōu)化。
這就把問題倒過來了:不是“基站里為什么要放AI”,而是“不放AI的基站還能不能跑得動”。
具體到場景,有幾個方向已經(jīng)比較清晰。
一個是信道估計。無線信號在空中傳播,受到干擾、衰落、遮擋的影響,基站需要實時估計信道狀態(tài),才能決定用什么樣的參數(shù)發(fā)送數(shù)據(jù)。傳統(tǒng)算法有局限,而AI可以通過學習歷史數(shù)據(jù),更準確地預測信道變化。富士通旗下的一個團隊給出的數(shù)據(jù)是:用AI改善信道估計,可以把上行鏈路性能提升20%,某些場景下甚至能達到50%。
另一個是波束管理。大規(guī)模MIMO基站可以生成多個窄波束,覆蓋不同方向的用戶。但用戶是移動的,波束需要跟著人走。如果波束切換不及時,就會掉線。AI可以預測用戶的移動軌跡,提前把波束切過去,讓用戶的體驗更流暢。
還有頻譜共享。傳統(tǒng)做法是,如果某個頻段受到干擾,系統(tǒng)干脆把整個頻段關(guān)掉。但AI可以做得更精細——識別出干擾源,只屏蔽受影響的頻率,其他部分照常使用。MITRE在2025年展示的一個應用,做的就是這件事。
這些場景的共同點是:需要實時響應、需要本地決策、無法把所有數(shù)據(jù)都傳回中心處理。這正是基站級AI的意義所在。
04
基站“夜間兼職”
如果說“AI for RAN”是為了讓網(wǎng)絡跑得更順,那么“RAN for AI”則是在探索另一種可能性:基站能不能不只是花錢的基礎設施,還能成為賺錢的資產(chǎn)?
軟銀和諾基亞最近做了一個很有意思的試驗。他們在日本搭建了一套基于英偉達GPU的AI-RAN平臺,白天,基站的算力優(yōu)先保障5G通信——處理用戶的語音、視頻、數(shù)據(jù)請求;到了夜間,當網(wǎng)絡流量大幅下降,這些原本閑置的GPU算力并沒有空轉(zhuǎn),而是通過軟銀的AITRAS編排器自動切換成“算力供應商”模式,為第三方客戶運行AI推理任務。
換句話說,同一個基站,白天是通信基站,晚上變成了邊緣AI服務器。諾基亞首席技術(shù)兼AI官Pallavi Mahajan對此評價:“隨著全球AI處理需求加速增長,這個項目展示了如何利用分布式網(wǎng)絡資源來提供可擴展、高效且可持續(xù)的AI服務。”
軟銀先進技術(shù)研究所副總裁Ryuji Wakikawa則說得更直接:“在AI-RAN中,最大化計算資源的價值非常重要。我們增強了AITRAS編排器,使其能夠?qū)①Y源分配給外部AI工作負載,從而將這些資源作為新的收入來源加以利用。”
這種“基站夜間兼職”的模式,觸及了一個更深層的變革:基站正在從單純的“成本中心”向可能的“利潤中心”演進。當然,這還只是試驗。客戶畫像還不清晰——是賣給互聯(lián)網(wǎng)公司做邊緣推理?還是給工業(yè)企業(yè)做機器視覺?商業(yè)模式還在探索中。但它至少打開了一個想象空間:如果全城的基站都能在夜間貢獻算力,那將是一張多么龐大的分布式計算網(wǎng)絡。
05
兩條腿走路:GPU與CPU的長期共存
回到最初的問題:基站里到底需不需要GPU?
最可能的答案是:部分需要,部分不需要。就像今天的網(wǎng)絡設備,有的用專用芯片,有的用通用CPU,有的用FPGA,各取所需。未來的基站也不會是單一形態(tài),而是根據(jù)場景和成本,靈活選擇計算架構(gòu)。
對于城市熱點、高流量區(qū)域,基站可能確實需要GPU來支撐復雜的AI任務;對于偏遠地區(qū)、低負載站點,CPU就夠用了,沒必要多花錢。還有一種可能是,GPU不是部署在每一個基站,而是部署在邊緣節(jié)點,覆蓋一片區(qū)域內(nèi)的多個基站,兼顧算力供給和成本控制。
英偉達自己也意識到了這一點。它的AI Aerial平臺,核心賣點之一就是“資源共享”——同一塊GPU,可以動態(tài)分配給RAN任務和AI任務,忙時做通信,閑時做推理,提高利用率,攤薄成本。這其實是在回應運營商的成本顧慮:你可以不用為AI專門買一塊GPU,它可以和RAN共用一塊。
軟銀在日本做的試驗,就是這個思路。他們用一套系統(tǒng)同時跑5G和第三方AI應用,證明了兩者可以共存,且互不干擾。對于運營商來說,這提供了一種新的可能性:基站不再只是成本中心,還可以變成算力服務的輸出節(jié)點,創(chuàng)造新的收入來源。
當然,這還只是試驗。從試驗到規(guī)模化商用,還有很長的路。標準怎么定、接口怎么統(tǒng)一、業(yè)務模式怎么設計,都是待解的難題。業(yè)內(nèi)人士的回答是:“客戶畫像還不清晰,是賣給互聯(lián)網(wǎng)公司做邊緣推理?還是給工業(yè)企業(yè)做機器視覺?商業(yè)模式還在探索中。”
06
結(jié)語
站在2026年回望,AI-RAN的討論已經(jīng)從“要不要做”轉(zhuǎn)向了“怎么做”。英偉達用兩年時間,把一個概念做成了一個產(chǎn)業(yè)聯(lián)盟,從T-Mobile到軟銀,從諾基亞到思科,越來越多的大玩家加入其中。這本身就說明,方向是對的。
但“方向?qū)Α辈坏扔凇奥涞乜臁薄k娦判袠I(yè)有其自身的節(jié)奏,幾億用戶的網(wǎng)絡不能隨便折騰,穩(wěn)定可靠永遠是第一位的。“AI-RAN架構(gòu)能否實現(xiàn)規(guī)模化商用,關(guān)鍵取決于其性能表現(xiàn)、成本控制與運行穩(wěn)定性。今年MWC上的各類演示顯示,相關(guān)技術(shù)基礎正持續(xù)成熟,云計算、人工智能與通信基礎設施的融合,已從概念構(gòu)想逐步進入可控驗證落地階段。”
“AI進基站,不會是顛覆式的推倒重來,而是漸進式的滲透融合。”這個過程可能需要五年、十年,但一旦完成,網(wǎng)絡將不再是今天的網(wǎng)絡。
到那時,基站不僅是收發(fā)信號的鐵塔,還是感知世界的節(jié)點;網(wǎng)絡不僅是傳輸數(shù)據(jù)的管道,還是承載智能的基礎設施。而這一切的起點,正是今天這些充滿爭議、有待驗證的試驗和討論。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.