![]()
在 AI 領域,小型模型正迎來屬于它們的高光時刻。從 MIT 子公司 Liquid AI 發布的可裝入智能手表的新 AI 視覺模型,到能在谷歌智能手機上運行的模型,小型化、高效化已成為顯著趨勢。而如今,英偉達也強勢加入這一浪潮,帶來了全新的小語言模型(SLM)——Nemotron - Nano - 9B - v2。這款模型不僅在選定基準測試中達到同類最高性能,更具備讓用戶自由開啟和關閉 AI “推理” 的獨特能力,為 AI 應用開辟了新的想象空間。
“小” 模型從邊緣玩具到生產主力
過去三個月,AI 圈的 “迷你軍團” 接連亮劍,掀起了一場無聲的革命。MIT 子公司 Liquid AI 推出的視覺模型,小巧到能輕松裝入智能手表,讓可穿戴設備的智能體驗邁入新臺階;谷歌則將 Gemini-Nano 成功塞進 Pixel 8 手機,讓移動端 AI 能力實現質的飛躍;而今,英偉達帶著 90 億參數的 Nemotron-Nano-9B-v2 登場,將其部署在單張 A10 GPU 上,再次刷新了人們對小型模型的認知。
這絕非一場 “小而美” 的技術炫技,而是一次對成本、效率與可控性的精準平衡實驗。正如英偉達 AI 模型后訓練主管 Oleksii Kuchiaev 在 X 上直言:“120 億參數精簡到 90 億,就是專門為了適配 A10—— 那可是企業部署中最常見的顯卡。”
一句話:參數大小不再是衡量模型優劣的 KPI,投資回報率(ROI)才是硬道理。
把思維鏈條做成可計費功能
傳統大模型的 “黑盒思維” 一直是企業使用的痛點 —— 一旦觸發長時間推理,token 賬單就如同脫韁野馬般失控。而 Nemotron-Nano-9B-v2 給出的解法簡單直接且高效:
在 prompt 中加入/think,模型便會啟用內部思維鏈,像人類思考一樣逐步推導;加入/no_think,則會直接輸出答案,省去中間環節;系統級的max_think_tokens功能,如同 AWS 的 CPU credit 機制,能為思維鏈設定預算,精準控制成本。
![]()
![]()
現場實測(官方報告)數據更能說明問題:
![]()
一句話:把「推理」從默認能力變成可選項,企業第一次可以像買云硬盤一樣,按思考深度付費。
Transformer 的「省油」補丁
為何 9B 模型能在長上下文里打平 70B?
答案藏在Mamba-Transformer 混合架構里:
用 Mamba 狀態空間層替換 70% 的注意力層,顯存占用 ↓ 40%;
序列長度與顯存呈線性關系,而非平方爆炸;
128k token 實測吞吐量比同尺寸純 Transformer高 2.3×。
一句話:Mamba 不是取代 Transformer,而是把它改造成省油的混動引擎。
商業核彈:寬松許可證 + 零門檻商用
英偉達此次在許可協議上的舉措堪稱 “商業核彈”,做到了 “三不要”:
不要錢:無版稅、無收入分成,企業無需為使用模型支付額外費用;不要談判:直接下載即可商用,省去了繁瑣的合作洽談流程;不要法務焦慮:僅要求遵守可信 AI 護欄和出口合規,降低了企業的法律風險。
對比 OpenAI 的分級許可、Anthropic 的使用上限,Nemotron-Nano-9B-v2 幾乎成了 “開源界的 AWS EC2”—— 拿來就能上線賺錢,極大地降低了企業的使用門檻。
場景切片:誰最先受益?
![]()
一句話:任何邊緣/私有化場景,都多了一張「足夠聰明又付得起」的牌。
AI 的「精算時代」正式開幕
過去四年,我們見證了 scaling law 的魔法:參數 × 算力 = 性能。而今天,Nemotron-Nano-9B-v2 用 90 億參數告訴我們:架構 × 控制 × 許可證 = 可持續的 AI 經濟。
當 Liquid AI 把模型塞進手表,當英偉達把推理做成開關,“小” 不再是技術上的妥協,而是經過精打細算后的最優解。
下一次融資路演,創業者們或許不會再說 “我們比 GPT-4 更強”,而是會自信地宣稱:“我們用 1/10 的算力,做出了 90% 的效果,并且還能賺錢。” 這標志著,AI 的 “精算時代” 已正式拉開帷幕。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.