![]()
2026年3月10日,英偉達正式發布Nemotron 3 Super,這是一款搭載1200億參數的混合專家(Mixture-of-Experts, MoE)模型,專門針對agentic AI(智能體)工作負載量身打造。
該模型采用創新混合Mamba-Transformer架構,在推理過程中僅激活約120億參數,此舉不僅能穩定維持高性能水平,還能大幅降低AI服務的部署與運行成本,相較于同等參數規模的稠密模型具有顯著競爭優勢。
作為Nemotron 3系列的核心升級款,Nemotron 3 Super是該系列中首款全面整合LatentMoE(潛在專家混合)、Multi-Token Prediction(多token預測)層及NVFP4預訓練技術的旗艦模型。
![]()
這一核心技術組合,極大提升了模型的推理準確性與運行速度。依托創新混合架構,該模型相較前代產品實現了最高5倍的吞吐量提升與最高2倍的準確率優化;更值得關注的是,其原生支持最長達100萬token的上下文窗口,能夠高效處理超長文檔解析、復雜多步推理等挑戰性任務,打破了傳統大模型的上下文長度限制。
為降低開發者應用門檻,英偉達為該模型提供了多格式檢查點支持,涵蓋經過后訓練的版本、量化版本以及基礎版本,全面兼容NVFP4、FP8和BF16三種精度。同時,英偉達公開了相應的訓練數據集、模型訓練配方(recipes)以及相關基礎設施,整個Nemotron 3計劃更是涵蓋了超過10萬億token的預訓練與后訓練數據,并內置用于后訓練的專屬強化學習環境,為開發者提供端到端技術支撐。
![]()
英偉達明確將Nemotron 3 Super定位于協作式智能體與高吞吐量AI場景,重點強調該模型在軟件開發、長文檔分析以及工具調用等核心任務中表現突出,尤其適配需要多個智能體協同聯動、完成復雜目標的企業級應用場景。
總體而言,Nemotron 3 Super憑借創新混合MoE架構與高效訓練技術的雙重優勢,為構建高性能、低成本的agentic AI系統提供了強大且開放的技術基礎設施,進一步加速了開源大模型在實際生產環境中的落地應用,為AI智能體的規模化部署奠定了堅實基礎。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.