![]()
7 毛的電經過顯卡生成 Token 就能 18 塊賣給美國人?
沒錯,這段時間地球另一端的電腦里,國產 AI 大模型正在 OpenRouter 上大殺四方。
要知道,這可是全球最大的 AI 模型聚合平臺,就像買游戲大家上 Steam,買 Token 一般就選 OpenRouter 了。
![]()
上面每天各種模型的使用量加起來超過 1 萬億 Token,一直以來大半份額都被美國模型牢牢占據。
但國產模型近期表現異常強勁,據每日經濟新聞統計,今年 2 月份,國產模型的調用量三周大漲 127%,首次超越美國。
尤其在 2 月 9 日至 15 日這周,國產模型以 4.12 萬億 Token 的驚人調用量,超越了同期美國模型的 2.94 萬億 Token,實現了歷史性的趕超。
這可是 AI 啊,這種在別人家最引以為傲的地盤上啪啪打人臉的新聞,聽起來確實帶派。
![]()
而眾所周知,AI 的盡頭是算力,算力的盡頭是電力,想滿足全球數十億人的需求,明顯需要非常龐大的電力。
同樣的一度電,費勁吧啦的拉電網搞基建才能賣個幾毛,算進電解鋁冶煉里頂多賣兩塊。
可換成 Token 出海直接就翻了幾十倍,妥妥的降維打擊,再加上光速運輸、超低損耗、無視關稅,一下子大家開始紛紛下場,把這 Token 背后燃燒的電力搬上臺來。
看著 A 股一路飄紅的電力板,似乎借著 Token,把中國的電賣給全世界真就指日可待了。
![]()
那這波 Token 到底有沒有帶著電力一起出海呢?
翻完資料算完賬世超發現,前景確實誘人,條件嘛有待商榷。
這波 Token 大賣其實最主要的原因就是那個攪動 AI 界的開源項目:OpenClaw。
因為這只大龍蝦每次干活,就要消耗大量 Token,連帶著全世界消費者的 Token 消耗量都一起蹭蹭漲。
有網友就抱怨過,剛充的 20 刀 Token 余額,想著設定個小任務慢慢跑,結果第二天起床一看,花光了。。。
再加上項目前些天剛剛登頂 Github 星標榜歷史第一,眼看著要迎來更多新用戶,這 Token 開銷如流水的日子想必還要持續一段時間。
![]()
這個時候,國產模型量大管飽的優點就凸顯出來了,比起美國那些用著肉疼的模型,咱這不僅價格便宜足足十幾倍,干起活兒來還沒差多少,那用腳投票都知道該選什么模型了。
也就導致 OpenRouter 上的模型調用數據,前五個里住進了三個雷打不動的國產模型:MiniMax M2.5,Kimi K2.5 和 DeepSeek V3.2,雖偶爾起伏,但始終在榜。
![]()
這么一看,Token 出海的市場表現是相當來勁兒,那伴隨著的,就是電力出海也有了充足的未來預期。
世超是趕緊打開計算機搗鼓了起來,拿 DeepSeek V3.2 來舉例,之前就有人算過,每 Token 生成需要約 0.4 焦耳能量,那 7 毛一度的電,算上損耗,就能生成約 600 萬的 Token,按市場價就是 18 塊錢吶。
好家伙,25 倍的價差,這哪是充足的預期,這得給電力拉得起飛了啊。
但再回想對比一下現在的這點兒聲量,明顯哪里不對啊。
于是世超又繼續在 OpenRouter 官網扒拉了起來,這一扒拉,就發現了貓膩。
原來模型是國產的沒錯,但產 Token 的電就說不準兒了,根據服務器地址統計,很多 Token 的算力來源其實是美國的機房。
![]()
比如 MiniMax M2.5 的 Token 服務器,地址就基本以美國為主。而三個頭部國產模型,只有 DeepSeek 一家有一個明確的國內服務器。
當然,不排除有一部分可能是中轉的國內算力,但更多的部分確實來自海外的供應商。
所以簡單點說,現階段的 Token 出海一大部分是中國的模型外國的電,只能說是模型出海,距離算力出海和電力出海還有段距離。
好家伙,規劃了半天出口中國電力,結果都沒咋用上,那還賣給全世界個錘子,敢情是“未來可欺”啊。
但現在又有了個新問題,為啥這中國模型非得跑到美國去算,而不是帶著電力一起出海呢?
其實這事兒挺好解釋的,跟其他行業沒啥兩樣。
就是法律合規、成本控制以及用戶體驗綜合起來的商業化原因,很現實,也很直接。
美國那地兒,不說差友們也都清楚,總喜歡動不動拿數據安全來說事兒,放 AI 模型這兒也不例外。
美國第 14117 號行政令的核心內容就是禁止或限制向“關注國家”(包括中國)傳輸批量敏感個人數據,包括基因、生物識別、個人健康、地理位置、金融數據等等。
![]()
如果 AI 模型涉及處理這些敏感數據,且服務器位于中國,就會直接面臨被禁的風險。
除了法律合規的需求,還有算力芯片的考量,由于國內難以獲得最高能效比的頂尖制程芯片,所以在推理效率上肯定要落后最新一代很多的。
就比如英偉達 B200 ,同等單位下推理能效足足有 H100 的 25 倍,既快又便宜,這差距一下就拉開了。
![]()
所以如果面向全球市場,目前的標準操作模式是:
研發在國內(使用國產卡或存量卡)+ 推理在海外(租用海外算力)+ 運營主體隔離。
比如拿海外成績非常亮眼的 Talkie 來說,定位是跟 AI 互動聊天的手機應用,用戶超五千萬,每天都需要消耗海量的 Token。
他們用的是 MiniMax 自家訓練的模型,但推理的算力服務器是租自美國的供應商,如亞馬遜、谷歌或者微軟,數據同樣存在美國的服務器上。
這樣一方面可以避免用戶跟 AI 交互時延遲過高,畢竟誰也不想說句話等半天才有回復;另一方面也符合美國的法規要求。
至于日常運營,是在新加坡注冊的子公司負責,能規避更多的潛在風險,正符合這套標準的出海打法。
![]()
也就是說,咱們默認的那種美國人電腦上敲個回車,中國這邊算力中心就庫庫耗電跑 Token,跑好再賣到大洋那邊電腦上的場景基本不會發生。
但是,事情并非沒有轉機。。。
在繼續研究了一些資料后,世超發現,雖然現在條件欠妥,但在未來,通過賣 Token 實現電力出口的路,其實并沒被完全堵死。
一方面,美國雖然缺電,但不是簡單的缺發電量,而是一種結構性缺電。
像馬斯克那樣簡單的建幾個電廠能應付一時,但對于規劃里源源不斷的算力中心來說,仍然是杯水車薪。
![]()
結構性缺電是美國幾十年來電力基礎設施老化的歷史遺留,疊加老美不像咱能集中力量辦大事兒的國情,這電力基建的差距,根本不是三兩年能追上的。
另一方面,近些年國產 GPU 一直在迅速成長,無論是新上市的芯片四小龍,還是悶頭做事的帶頭大哥華為昇騰,都在悄悄搶占大模型在推理端的市場。
據 IDC 2025 年的市場調研,國產 AI 芯片在英偉達的壟斷下增長到了 35% 左右的市場份額,早已不再是 PPT 里的備胎,而是真的能買來干活的主力。
注:IDC稱,2025上半年中國加速芯片的市場規模達到190萬張,資料來源:《中國半年度加速計算市場(2025上半年)跟蹤》《財經》整理
![]()
再說了,AI 大基建時代才剛剛開始,全世界都缺算力。
閑置綠電這波雖然搭不上 Token 出海的快車,但我國幾十年積累的電力基建還是很能打的。
隨著模型能力提升的速度逐漸放緩,當我們算力芯片的腳步跟上時,這便宜大碗的電力,可能真會成為劃分市場份額的關鍵一手,帶著國產模型一起去撬動更大的利潤。
撰文: 風華
編輯: 江江 & 面線
美編: 煥妍
圖片、資料來源:
IDC,OpenRouter,arXiv,uvation,X,部分圖源網絡
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.