![]()
Google 又發(fā)新模型了。
![]()
但這次,重點可能不只是“模型更強了”,而是Google 終于開始認真回答一個更關鍵的問題:開發(fā)者為什么要在它的開放生態(tài)里構建下一代 AI 應用。4 月 3 日,Google 發(fā)布 Gemma 4,官方把它定義為“迄今最智能的開放模型家族”,主打 advanced reasoning、agentic workflows,以及從手機到工作站都能部署的本地運行能力。更關鍵的是,這一代 Gemma 4 改用了Apache 2.0許可。
這意味著,Gemma 4 不是一次普通的參數(shù)升級,而更像是 Google 對“開放模型”路線的一次重新表態(tài)。過去兩年,Google 在閉源旗艦模型 Gemini 上一路猛沖,但在開放模型這條線里,Gemma 雖然一直有不錯關注度,卻總被開發(fā)者吐槽“模型能用,條款不好用”。而這次,Google 明顯想把這件事掰回來。
![]()
圖:Google 官方博客展示的 Gemma 4 排行表現(xiàn)先看產(chǎn)品本身:Gemma 4 到底發(fā)了什么
官方這次一口氣放出了 4 個型號:E2B、E4B、26B A4B 和 31B Dense。其中 E2B 和 E4B 面向更輕量的端側和本地設備,26B A4B 是 Mixture-of-Experts 架構,31B Dense 則是這次家族里的高性能主力。Google 說,Gemma 自 2024 年首發(fā)以來累計下載已經(jīng)超過4 億次,社區(qū)衍生版本超過10 萬個,這次 Gemma 4 則是在這個基礎上繼續(xù)往上抬一檔。
從能力定義上看,Gemma 4 并不是只想做“更會聊天的小模型”。官方給它的關鍵詞是:推理、代碼、工具調用、長上下文、多模態(tài)和 agent 工作流。Gemma 4 支持文本和圖像輸入,小尺寸的 E2B 和 E4B 還支持音頻輸入;上下文長度方面,小模型是128K,26B A4B 和 31B 則上到256K。Google 還特別強調它對function calling、structured tool use、system instructions的原生支持,明顯是在朝“本地 agent 基礎模型”這個方向設計。
如果只看參數(shù),Gemma 4 也許不會給人那種“又一個超大模型”的壓迫感,但 Google 這次講得最多的其實是intelligence-per-parameter。換句話說,它想賣的不是“我有多大”,而是“我在這個體積下有多強”。官方 benchmark 里,31B Dense 在 MMLU Pro 上達到85.2%,AIME 2026 no tools89.2%,LiveCodeBench v680.0%;26B A4B 也分別做到82.6%、88.3%、77.1%。至少從 Google 自己公布的指標看,它確實想把 Gemma 4 放在“同尺寸開放模型里盡量打滿性能”的位置。
![]()
這次真正的變化,不在參數(shù),而在許可證
Google 官方明確寫了,Gemma 4 是 Gemmaverse 里第一批采用OSI 認可的 Apache 2.0許可的模型。Google Open Source Blog 甚至專門發(fā)文解釋:這一變化的目標是給開發(fā)者更清晰的修改、復用和再開發(fā)權利,讓大家不用再面對一套“看起來開放,但法律上不夠標準化”的專屬條款。
![]()
為什么這件事重要?因為過去的 Gemma 條款,問題不在“不能用”,而在“用起來心里沒底”。舊版 Gemma Terms 里,對Model Derivatives的定義非常寬,不只包括對 Gemma 的直接修改,還包括通過權重、參數(shù)、操作乃至 Gemma 輸出遷移模式而構建出來、表現(xiàn)得“像 Gemma”的模型,連基于 Gemma 生成的合成數(shù)據(jù)去訓練別的模型,都可能被卷進去。對于很多公司法務和商業(yè)團隊來說,這種定義天然會提高采用成本。
The Verge 對這件事的概括很直接:之前幾代 Gemma 用的是定制許可,而且一直被批評過于 restrictive;Gemma 4 換成 Apache 2.0,才算真正進入開發(fā)者更熟悉、也更容易被企業(yè)流程接受的許可體系。Google 這次不是只把模型發(fā)出來,而是在補過去一直沒補好的“最后一公里”——讓開發(fā)者敢真用、敢商用、敢繼續(xù)往下做衍生生態(tài)。
Google 想要的,也不只是“開放”,而是“本地化”
Google這次在三個官方博客里反復強調同一件事:Gemma 4 是給本地跑、給設備跑、給 agent 跑的。官方博客寫得很清楚,Gemma 4 是“你可以跑在自己硬件上的最強模型家族”;開發(fā)者博客則進一步把它包裝成 on-device AI development 的工具箱,直接說有了 Gemma 4,開發(fā)者可以在本地設備上做 multi-step planning、autonomous action、offline code generation,甚至音視頻處理。
26B A4B總參數(shù)是25.2B,但推理時實際只激活3.8B參數(shù)。Google 甚至在 model card 里直接解釋:這就是為什么它會比名義上的 26B 看起來更“輕”,推理速度也更接近一個 4B 級別模型。對于想在本地跑 agent、做工具調用、追求低延遲的開發(fā)者來說,這種設計比單純把參數(shù)堆大更有現(xiàn)實意義。
Google 甚至已經(jīng)把這條路延伸到了 Android。Android Developers Blog 寫得非常明確:Gemma 4 是下一代 Gemini Nano 4 的基礎模型,而后者會針對 Android 設備進一步優(yōu)化,官方稱其性能可達到上代的4 倍,電池消耗最多降低60%。同時,Google 還推出了 AICore Developer Preview,讓開發(fā)者可以直接在支持的設備上預覽和原型化 Gemma 4 E2B/E4B。Google 想把模型、系統(tǒng)、端側硬件和開發(fā)工具重新打包成一整套自己的本地 AI 平臺。
![]()
這不是 Gemini 的“平替”,而是 Google 的生態(tài)補位
很多人看到 Gemma,會下意識把它理解成“Gemini 的開源版”。但從這次發(fā)布節(jié)奏看,Gemma 4 更像是 Google 在做另一件事:把 Gemini 體系里的研究和能力,拆成開發(fā)者能本地拿走、自己調、自己部署的一條產(chǎn)品線。官方博客就寫得很直白:Gemma 4 和 Gemini 是互補關系,前者給開發(fā)者開放模型和本地部署的空間,后者則繼續(xù)作為 Google 的閉源旗艦能力存在。
過去一年多,真正把開發(fā)者生態(tài)卷起來的,不只是最大的閉源模型,而是那些能被拿去直接改、直接跑、直接集成進應用和 agent 框架的模型。Google 如果只守著 Gemini API,本質上只能拿到“調用層”的開發(fā)者;但 Gemma 4 這種更標準、更寬松的許可,加上對本地和端側的強調,Google 才有機會把開發(fā)者重新吸回到自己的工具鏈里——從 Hugging Face、Kaggle、Ollama、vLLM、llama.cpp 到 Android AICore,再到最后的 Google Cloud 和 Vertex AI。
Gemma 4 不只是一次模型迭代,更像是一場遲來的開放生態(tài)修正。它當然仍然不是那種"把訓練數(shù)據(jù)、訓練流程、完整 pipeline 全部公開"的徹底開源敘事,但在許可、部署范圍和開發(fā)者友好度上,Google 的確向前邁了一大步。
Gemma 4 的關鍵,不是它是不是世界最強開放模型。更關鍵的是,Google 終于開始認真回答:為什么開發(fā)者要在 Google 的開放生態(tài)里,構建下一代 AI 應用。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.