![]()
過去兩年里,國內AI圈有一個心照不宣的“焦慮”:國產算力已經滿足了大規模的模型推理需求,可大模型的訓練,特別是SOTA級模型的預訓練,還是無法擺脫對英偉達生態的依賴。
2026年注定是一個分水嶺。
剛登陸港股市場的智譜,發布了新一代圖像生成模型GLM-Image,在文字渲染的權威榜單中達到了開源SOTA水平,并在“出生證明”上寫了一段關鍵信息:模型自回歸結構基座基于昇騰Atlas 800T A2設備與昇思MindSpore AI框架,完成了從數據預處理到大規模訓練的全流程構建,驗證了在自主創新算力底座上訓練前沿模型的可行性。
全流程、SOTA、自主創新算力底座……每一個詞,都是對“國產算力不好用”等刻板印象的有力回擊。同時也預示著,國產算力已經從“跑推理”正式邁向“數據預處理+預訓練+SFT微調+RL訓練”的端到端全流程,從“能用”進階到了“好用”。
01 一場“地獄級”難度的壓力測試
在討論算力前,有必要先理解GLM-Image的“含金量”。
如果只是訓練一個“二流模型”,對算力的考驗也是“二流”的,而智譜瞄準了下一代技術范式——認知型生成。
過去的圖像生成模型,普遍存在“智商不夠”的瓶頸。比如讓AI畫一張“關于量子力學的科普海報”,可以畫出炫酷的原子結構和星空背景,但上面的文字卻是亂碼,典型的“視覺強,認知弱”。
智譜GLM-Image沒有照搬開源常用的LDM方案,采用了創新的“自回歸+擴散編碼器”混合架構,屬于兼具世界知識與推理能力的“認知型生成”,不僅要會畫畫,還要理解物理規律、邏輯關系和文字符號。
可以簡單地比作是“大腦”和“畫師”的組合:
9B大小的自回歸模型,扮演了“大腦”的角色,利用語言模型的底座優勢,專注于提升對指令的語義理解和畫面的全局構圖;
7B大小的DiT擴散解碼器,像一個技法高超的“畫師”,專注于還原圖像的高頻細節和文字筆畫,改善模型“提筆忘字”的現象。
基于架構上的創新,GLM-Image在通用圖像生成質量上能夠對齊業界主流隱空間擴散模型方案,在文字渲染與知識密集型圖像生成場景中展現出了顯著優勢,以及出色的多分辨率自適應能力,原生支持從1024x1024到2048×2048尺寸的任意比例圖像的生成任務。
參考行業慣例,先來“跑個分”。
![]()
在考察模型在圖像中同時生成多處文字準確性的CVTG-2K榜單上,GLM-Image憑借0.9116的Word Accuracy(文字準確率)成績,位列開源模型第一。特別是NED(歸一化編輯距離)指標上,GLM-Image以0.9557的得分領先,生成文字與目標文字高度一致,錯字、漏字情況更少。
考察模型渲染長文本、多行文字準確性的LongText-Bench,覆蓋了招牌、海報、PPT、對話框等8種文字密集場景,并分設中英雙語測試,GLM-Image以英文0.952、中文0.979的成績位列開源模型第一。
比“跑分”更有說服力的是,GLM-Image開源不到24小時就沖上全球知名AI開源社區Hugging Face榜單的全球第一。
![]()
只是架構越先進,對算力底座的挑戰越大。既要滿足LLM對顯存和序列長度的極高要求,同時解決圖像生成對高并發計算的吞吐需求,對任何算力底座來說,都是一場“地獄級”的壓力測試。
02 智譜、昇騰、昇思的協同“破壁”
面對行業“無人區”,智譜和昇騰.昇思是怎么破局的呢?
智譜官方公眾號給出了答案:“依托昇騰NPU和昇思MindSpore AI框架,使用動態圖多級流水下發、高性能融合算子、多流并行等特性,我們自研了模型訓練套件,全面優化數據預處理、預訓練、SFT和RL的端到端流程。”
![]()
做個“翻譯”的話,主要解決了模型訓練的三個核心痛點。
第一個是動態圖多級流水下發。
在大模型訓練的過程中,存在一個經典的“Host-Device”協同問題:Host側(CPU)負責下發指令,Device側(NPU)負責計算。但NPU算得太快了,CPU發指令的速度跟不上,導致NPU經常處于“等活干”的空轉狀態。
昇思MindSpore引入了“動態圖多級流水下發”機制,可以理解為將原先串行的“接單-備菜-炒菜”流程,變成了高度重疊的流水線:NPU炒上一道菜的時候,CPU已經在處理下一道菜的訂單了。結果是驚人的,Host側的并行度與下發效率大幅提升,整體訓練性能提升了20%。
第二個是多流并行執行。
在多模態訓練場景中,文本梯度同步、圖像特征廣播、混合并行等操作,會產生海量的通信需求。
傳統模式下,計算和通信往往是串行的——“路通了再走車”,昇騰的“多流并行執行機制,相當于給計算和通信修了座“立交橋”,通過共用內存池,允許計算和通信同時運行,而且不同通信域還能單獨分配“車道”,充分利用網絡帶寬消除通信串擾,讓整體訓練性能又提升了10%。
第三個是高性能融合算子。
做過大模型訓練的工程師都知道,最大的噩夢就是擴散模型訓練后期的Loss震蕩。
為了解決這個問題,昇騰CANN高性能算子庫提供了多種高性能融合算子,包括AdamW EMA融合算子,緩解擴散模型訓練后期loss震蕩問題,使收斂效果更穩定;COC通算融合算子,使用集合通信創新算法,用計算掩蓋多機多卡場景TP域中ReduceScatter和AllGather等核心通信算子的通信開銷,將通信效率提升了15%。
正如我們所看到的,GLM-Image不但驗證了在自主創新算力底座上訓練高性能多模態生成模型的可行性,更在權威榜單中達到了開源SOTA水平,詮釋了自主創新算力底座在模型訓練環節的無限可能。
03 中國計算產業破局的“新范式”
GLM-Image的從0到1,預示著AI產業的一次深刻變革。
過去一段時間,外界習慣了“大力出奇跡”:只要堆疊的顯卡足夠多、帶寬足夠寬,似乎沒有什么模型是跑不起來的。
時間來到2026年,“認知型生成”漸漸成為新的技術范式,模型的架構越來越復雜,既要LLM的邏輯推理能力、生成模型的渲染能力,甚至還要有視頻理解的時空建模能力。
面對動態變化的計算需求,“堆算力”已經捉襟見肘,如果不進行底層創新,有效算力將被大量的通信開銷和內存墻吞噬。
智譜和昇騰“背靠背”的作戰,示范了模型反向定義算力底座的可能:比如為了配合語義Token的理解,專門優化底層的通信流;為了解決混合架構的收斂難題,深度定制融合算子……大模型廠商和算力企業不再是“甲方乙方”的關系,而是聯合攻堅作戰的“隊友”。
除了技術上的“賬”,還有商業上的“利”。
“自回歸+擴散編碼器”的混合架構,兼顧全局指令理解與局部細節刻畫,創造性地解決了海報、PPT、科普圖等知識密集型場景生成難題。按照常理推斷,模型越復雜,計算量越大,成本就越高。但智譜官方公開的數據卻是:在API調用模式下,GLM-Image生成一張圖片僅需0.1元。
![]()
在智能體時代,一個復雜任務(比如設計一張雙十一促銷海報)可能需要AI在后臺進行數十次的自我迭代、草圖繪制、反思修改,最終才輸出一張成品。倘若生成一張圖的成本要幾塊錢,多步推理的智能體將被局限在實驗室,在商業上根本跑不通。
智譜和昇騰.昇思的協同創新,通過計算效率的提升和算力利用率的優化,“抹平”了復雜架構帶來的“額外成本”,賦予了GLM-Image極致的性價比,讓AI生圖從一個需要小心翼翼計費的“工具”,變成了電商、廣告、社交媒體等行業的“白菜價”基礎設施。
沿循這樣的邏輯,接下來的AI競爭,比拼的不只是誰的算力多、模型強,還在于是否擁有“算法-框架-芯片”三位一體的垂直整合能力:在訓練端,穩定、高效地進行大模型訓練;在推理端,低成本推進產業落地。
像智譜和昇騰一樣,拆掉模型和算力之間的墻,進行深度的軟硬協同,或將成為計算產業的新范式。
04 寫在最后
GLM-Image的一小步,或許是中國AI生態的一大步。
中國最頂尖的算法團隊疊加最硬核的算力底座,蹚過了最深的水,踩過了最痛的坑,最終用一份開源SOTA的成績單告訴行業:用自主創新算力底座訓練大模型的路,不僅能走通,還能走得快、走得遠。
當然,也要清醒地看到,國產算力生態依然有差距,但GLM-Image撕開了一道口子,光已經照進來了。今天是一個圖像模型,明天可能就是萬億參數的多模態“巨獸”。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.