本地蝦風險還是有點大,各家也上線了各種云端蝦。
Kimi出了K2.5,我第一時間開了Allegretto 套餐,199元/月的套餐,布局 KimiClaw 的最低配套餐,想試試Agent集群到底有多能打。MiniMax的Coding Plan也試了。
結果呢?Kimi隔三差五跳出“高峰時段算力不足”的提示,Agent任務跑到一半斷掉是家常便飯。MiniMax那邊更離譜,龍蝦部署上去,聊兩句就掉線,API動不動返回限速警告。
199塊買了一張算力排隊票。
翻了翻用戶群,吐槽聲不絕于耳,一個MiniMax用戶@客服:“今天已經連續掉線了,聊2句就掉了。”客服回復:建議您檢查本地網絡。另一個人貼出終端截圖,MiniMax API返回rate_limit_error,配是一張“賽博牛馬”的表情包:大哥,我就一個蝦,隔了5分鐘發了條消息,給我限速了。
![]()
小紅書上也是,基本都是勸下車的。
簡單來說就是,你花了錢,但算力不一定是你的。什么時候能用上,看運氣,因為高峰時期限速太嚴重了。
那邊的 Claude是動不動就限額,咱們這邊是動不動就限速。還是能工智人好,run 一天只需要倆饅頭。
![]()
不過算力緊缺這事兒早就不新鮮了,2月10日,Kimi因算力告急宕機,官方回應堪稱行為藝術:“嗯,正在找算力。要不先用DeepSeek。”一家融了超20億美元、手握100億現金的公司,在自家產品最火的時候讓用戶去用競品。DeepSeek自己也沒好到哪去——2月28日、3月5日接連大規模宕機,服務器繁忙。
2026年春天,國產AI集體進入了“用不了”時代。
算力基建,提前兌現
直覺上,“算力荒”好像是禁令的鍋。這個有道理,但不精確。
禁令是背景板,DeepSeek和Qwen這些模型本身就在資源約束下設計,MoE架構天然省算力。Kimi總裁張予彤之前在達沃斯說得很直白:僅用美國頂尖實驗室1%的資源,做出了全球領先的開源模型。
真正擊穿基礎設施的,是Agent。
Chatbot是一問一答,算力消耗線性可預測。Agent完全不同——一個任務背后可能觸發幾十上百次模型調用:規劃、拆解、執行、反思、糾錯,每一步都過模型。長上下文持續占顯存,工具調用讓GPU空轉。
Chatbot時代GPU就好像餐廳服務員,一桌客人上完菜就去下一桌。Agent時代,服務員全程陪同,從點菜到結賬,思考菜單的時候也不能走。同樣數量的服務員,能服務的桌數斷崖式下降。
粗略計算的話,Chatbot單輪對話消耗約1,000到3,000個token。Agent做一個完整任務——比如用龍蝦跑一次深度研究——要經歷感知、規劃、執行、反思等多個循環,中等復雜度輕松吃掉10萬token,復雜任務到百萬級。
有開發者報告單次OpenClaw運行燒掉了800萬token。再疊加K2.5 Thinking這類推理鏈模型,思考過程本身的隱藏token能把成本再放大10到30倍。保守估計,從chatbot到Agent,單次任務算力消耗放大30到100倍,極端場景1,000倍以上。
Deloitte的研究點出了一個宏觀悖論:過去兩年token單價降了280倍,但企業AI賬單反而飆升——推理成本降了1,000倍,需求增長了10,000倍。
問題是,Kimi和MiniMax自己并不擁有GPU。
從財報上看,MiniMax固定資產開支都極低,Kimi 雖然還沒上市但情況也類似,算力幾乎全部來自第三方云服務——輕資產模式,跟OpenAI自建數據中心完全不同。Kimi背后是火山引擎和阿里云雙軌供應:火山引擎從2023年起獨家提供訓練和推理方案,后來阿里投了月之暗面8億美元,其中一部分直接以阿里云算力結算,楊植麟公開給阿里云“代言”。MiniMax更復雜,阿里云、騰訊云、火山引擎都是它的供應商,早期招標會上三家殺到2折競價。
![]()
誰也沒想到,隨著龍蝦到來,token 需求的爆發來得如此之快。
Agent來了之后,價格戰的邏輯跑不通了。“以后”變成了“現在”:未來緩慢補充基建的時間瞬間消失。
用戶在罵Kimi卡的時候,Kimi可能也在罵火山引擎和阿里云卡。算力荒是從芯片到云服務到模型公司到用戶的四層傳導,Kimi和MiniMax站在最下游,承受每一層壓力的疊加。
上游扛得住嗎?
信號已經出現了。今年3月,國內云廠商開始集體調價——AI算力和存儲產品價格上漲,漲幅從個位數到30%以上不等。優刻得直接開啟全系漲價。海外也不例外,AWS和谷歌云在部分產品上試水調價。SK海力士公開表示2026年存儲芯片持續漲價已成定局,DRAM庫存僅剩約4周。持續二十年的“云服務只降不升”鐵律,被AI需求擊穿了。
漲價的邏輯不復雜。云廠商們過去一年瘋狂擴建AI算力基礎設施,資本開支動輒數百億量級,但AI業務本身的利潤率還很薄,遠不夠覆蓋基建投入。Token調用量在指數級增長——2026年2月國內主流大模型日均消耗合計約180萬億——但賣Token的收入增速追不上建數據中心的花錢速度。漲價,不是云廠商貪心,是供應鏈漲價的無奈之舉。
更棘手的是設備折舊。AWS、Google Cloud、Azure三家在2023-2024年統一把服務器折舊年限從3-4年延長到了6年,集體節省了約180億美元的年度折舊開支。但NVIDIA的芯片迭代周期只有18-24個月——你今天花幾千億建的數據中心,里面的GPU可能兩年后就不是最優選擇了,折舊卻要攤6年。
Satya Nadella自己都說:“我不想在一代芯片上背四五年的折舊。”
看一眼算力市場的格局。火山引擎憑借豆包以日均63萬億Token領跑,拿下公有云大模型調用量49.2%的份額,幾乎一家占了半壁江山。阿里云日均32萬億排第二,騰訊元寶28萬億、DeepSeek 22萬億緊隨其后。但調用量第一和營收第一不是同一家——按Omdia統計,阿里云以35.8%營收份額穩居AI云市場第一,超過第二到第四名總和。火山贏在“輕”,阿里贏在“重”。
Kimi和MiniMax的算力命脈就握在這兩家手里。MiniMax上市后資本市場對Token增長狂熱追捧——M2.5發布首周調用量暴漲至3.07萬億Token——但每一個Token背后都是真實的推理成本。MiniMax 2025年全年營收不足8000萬美元,經調整凈虧損2.5億,毛利率剛爬到25%。上游一漲價,這個剛轉正的毛利隨時可能被吃掉。
這些問題反映到C端,只有一個結果:繼續承受漲價或限流。Kimi配置最低的Allegretto套餐已經199元/月,幾乎和包含Co-work以及Claude Code的Claude Pro同價了。如果繼續漲價,我們所說的“白菜價”智能,就真的不存在了。
截至文章發布前,老虎證券剛剛發布消息,月之暗面已經開始考慮赴港上市。那Kimi就需要正面回答這個問題了:是繼續租算力還是自己買設備,是保利潤率還是保用戶。MiniMax已經站在聚光燈下,每一季財報都是照妖鏡。Kimi 本來手握 100 億的賬上資金,至少短期不用受到資本市場的審視,但剛好今天,就傳出了 Kimi 赴港上市的傳聞。
![]()
如果傳聞是真的,那么 Kimi和 MiniMax 們真的需要考慮一個問題,到底是保用戶還是保利潤率。隨著漲價鏈條的傳遞,大模型們被“兩頭堵”的可能性,已經驟然提升。
2026年,Agent改變了算力的需求曲線。便宜的智能沒變貴,使用智能的方式變了,資源出現了擠兌。
漲價什么時候會停?短期內恐怕看不到。Agent的需求曲線還在陡峭的上升期——Kimi K2.5剛上線不到一個月,收入就超過了2025年全年;MiniMax M2.5發布首周Token消耗量超過三家競品之和。多Agent并行、長上下文推理、編程場景的爆發才剛剛開始,每一個新場景打開都意味著Token消耗量再上一個臺階。而供給側的擴容周期是以年為單位的——數據中心從規劃到投產至少18個月,芯片禁令下國產替代的產能爬坡更慢。需求按周增長,供給按年追趕,中間的剪刀差就是漲價和限流的空間。
更深層的變化是,中國的云廠商們可能正在被迫進入一個全新的重資產設備周期。過去二十年,云計算的敘事是“輕”——彈性伸縮、按需付費、用多少買多少。但Agent時代的算力需求把這個敘事翻了過來。阿里宣布三年投入3800億建AI基礎設施,字節在火山引擎上的算力部署同樣激進。這些投入一旦啟動就停不下來——你今天不建,明天的Token就沒地方跑;但建了之后,折舊攤銷會在未來五到十年持續壓在利潤表上。
這很像二十年前電信運營商鋪3G/4G網絡的周期:需求爆發倒逼巨額基建,基建倒逼漲價或補貼退坡,最終整個行業的利潤結構被重塑。當年中國移動、中國聯通經歷的資本開支競賽,今天可能在阿里云、火山引擎身上重演。區別在于,電信行業有牌照壁壘和政策保護,云廠商沒有。
對于站在鏈條最下游的Kimi和MiniMax們來說,這意味著算力成本不會回到價格戰時代的地板價了。對于用199元套餐跑龍蝦的你和我來說,這意味著“便宜好用的AI”這個窗口期,可能比所有人想象的都要短。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.