發(fā)布才幾個小時,Gemma 4 就已經(jīng)把開發(fā)者社區(qū)的情緒拉滿了。
北京時間 4 月 3 日凌晨,Google 推出了新一代開源模型 Gemma 4,包括 E2B、E4B、26B(MoE)、31B 「一門四杰」,其中 E2B、E4B 兩個較小模型直接可以在手機(jī)、樹莓派等設(shè)備上部署運(yùn)行,26B、31B 兩個較大模型也只需要一張消費(fèi)級顯卡就能跑起來。
不同于閉源的 Gemini 大模型走的是「力大磚飛」,Google 在 Gemma 開源模型的思路上一直是「小而精」。
但 Gemma 4 給人的第一印象還是有點(diǎn)不按劇本來。參數(shù)規(guī)模沒有膨脹,結(jié)構(gòu)也談不上顛覆,可是在一系列 benchmark 里,Gemma 4 卻能逼近甚至超越更大一檔規(guī)模的模型。26B、31B 版本在 AI 競技場(人工對話打分)已經(jīng)比肩一眾國產(chǎn)開源模型,甚至超越了 685B 的 DeepSeek V3.2 以及 397B 的 Qwen 3.5。
![]()
比國產(chǎn)模型還卷了。
過去在這個戰(zhàn)場上,Qwen 幾乎就是「小而精」模型的代名詞,但 Gemma 4 這次的進(jìn)步確實(shí)太大了。 不只是在 AI 競技場這種偏「AI 聊天」的真實(shí)場景測試中有驚艷的表現(xiàn),Gemma 4 還是少有從一開始就面向本地 Agent 工作流設(shè)計的模型,也支持多模態(tài)。
這么小規(guī)模的模型下,Gemma 4 卻做到了超預(yù)期的性能和能力,也難怪 AI 研究工程師 Sebastian Raschka 在 X 上說,「Gemma 4 是一個巨大的跨越。」
但很多人忽略的一個關(guān)鍵,還在于開源協(xié)議的切換。這次 Google 終于想通了,放棄了自家糟糕透頂?shù)?Gemma 開源協(xié)議,Gemma 4 全系換上了主流的 Apache 2.0 協(xié)議,從個人到企業(yè)都可以放心商用、再分發(fā)。
![]()
開源 AI 模型的格局,又要再變一次?
免費(fèi)、無 API,大模型不大但好用
先從 26B 和 31B 這兩個模型說起。
按照過去兩年的直覺,這個參數(shù)規(guī)模幾乎不在第一梯隊。開源世界里,動輒就是百億、千億,甚至像 DeepSeek V3.2 這種 600B+ 級別的模型,才有資格談「對標(biāo)閉源」。但 Gemma 4 的這兩個模型,上來就把這套邏輯打亂了。
26B 和 31B 的表現(xiàn),不只是「能打」,而是已經(jīng)開始穩(wěn)定貼近甚至超過更大體量的模型。Google DeepMind 創(chuàng)始人兼 CEO Demis Hassabis就說得很直白,Gemma 4 就是「同級別(參數(shù)規(guī)模)最好的開源模型」。
需要一提的是,Gemma 4(26B)采用的是 MoE 架構(gòu),總參數(shù) 26B,但實(shí)際激活規(guī)模要小得多。這種設(shè)計帶來的直接結(jié)果不是紙面參數(shù)的好看,而是一個更現(xiàn)實(shí)的變化:在很多任務(wù)里,它用小模型的成本,打出了接近更大模型的效果。
![]()
圖片來源:英偉達(dá)
事實(shí)上,Gemma 4 的優(yōu)勢,不在絕對能力,而在「智能密度」,或者說是每個參數(shù)的效率最大化。
26B 和 31B 就是最直觀的例子,在實(shí)際測試?yán)锞湍芨惺艿竭@種密度和效率。在一些開發(fā)者的早期測試中,它反而比更大的模型更「好用」,因為它不只是能做,還能穩(wěn)定、快速地做。
簡言之,能夠承擔(dān)更復(fù)雜的任務(wù)和更好的表現(xiàn)。
Gemma 4 推出后,X 上就有獨(dú)立開發(fā)者就在 RTX 5090 上本地部署了 31B,不僅能快速完成代碼生成、多模態(tài)理解任務(wù),整體表現(xiàn)已經(jīng)相當(dāng)可用。至于 Gemma 4(26B),在 Mac mini(M4 16GB)上就能很好地部署運(yùn)行 。
![]()
更重要的是,Hacker New 社區(qū)還有人指出,測試將 Gemma 4 接進(jìn) code-agent harness(30K+ 上下文)的表現(xiàn)很好,明顯快于 Qwen 同級模型。
免費(fèi)、無需 API。Gemma 4 的 26B 和 31B,并不是最強(qiáng)的開源模型,但已經(jīng)足夠強(qiáng),同時又足夠「輕」,甚至可以真正在本地做事,用極低的使用成本在本地處理一系列低復(fù)雜度的 Agent 任務(wù)。
這也是為什么很多開發(fā)者在討論 Gemma 4 時,很少再糾結(jié)它和 GPT、Claude 的差距,而是開始討論另一件事,這樣體量的模型,能不能成為本地 Agent 的核心。因為一旦這個問題的答案變成「可以」,那整個開源模型的價值,就不再只是替代 API,而是開始接管一部分真實(shí)的工作流。
接下來一段時間,相信這也是 Gemma 4 的重點(diǎn)。
聯(lián)手高通、聯(lián)發(fā)科,小模型引發(fā)本地 Agent 浪潮?
但這一代 Gemma 4,不只看 26B、31B,把視角往下拉到 E2B、E4B,會發(fā)現(xiàn) Google 還想更進(jìn)一步把端側(cè) AI 塞進(jìn)手機(jī)等邊緣設(shè)備。
先說一點(diǎn)。這兩個模型不是可以在端側(cè)跑,而是從一開始就是為端側(cè)設(shè)計的。Google 在官方描述里就強(qiáng)調(diào),E2B 和 E4B 的目標(biāo)是「重新定義端側(cè)實(shí)用性」,優(yōu)先考慮的是低延遲、多模態(tài)和系統(tǒng)級集成,而不是參數(shù)規(guī)模。這句話背后其實(shí)很明確,它們不是縮小版的大模型,而是另一類產(chǎn)品。
這類產(chǎn)品最關(guān)鍵的一點(diǎn),是把「本地 AI」從概念變成了一個可以落地的工程路徑。E2B 在量化之后可以壓到 1.5GB 以內(nèi),在樹莓派 5 上也能跑出可用的推理速度,prefill 可以到 100 tokens/s 以上 。意味著一個不依賴云、不走 API 的 AI 系統(tǒng),開始可以在極其有限的硬件上運(yùn)行。
![]()
手機(jī)上就能本地部署,圖片來源:Google
更重要的是,這件事并不是 Google 一家在做。為了讓這兩個模型真的跑起來,Google 這次是把整條硬件鏈路一起拉進(jìn)來了,從 Pixel 團(tuán)隊,到高通、聯(lián)發(fā)科,再到 ARM、NVIDIA,都參與了優(yōu)化 。換句話說,這還是一次面向手機(jī)和邊緣設(shè)備的系統(tǒng)級協(xié)同。
這也解釋了為什么 E2B 和 E4B 的意義,和過去的小模型完全不一樣。以前的小模型,本質(zhì)是「能力不夠,只能在端側(cè)跑」。現(xiàn)在這兩個模型更像是「能力剛好夠,而且專門為端側(cè)優(yōu)化」。它們不僅支持文本,還原生支持圖像、音頻輸入,甚至可以直接參與多步 Agent 工作流 ,支持 Skiill。
![]()
可以安裝 App 使用,圖片來源:Google
真正的變化在這里開始顯現(xiàn)。過去討論手機(jī)上的 AI,大多還停留在「調(diào)用云端模型」,本地只負(fù)責(zé)做一些簡單推理。但 Gemma 4 這一步,相當(dāng)于是把更完整的 AI 能力,直接搬進(jìn)手機(jī)等設(shè)備里,甚至是脫離網(wǎng)絡(luò)在本地運(yùn)行 Agent 。
尤其是在豆包手機(jī)助手引發(fā)云端 AI Agent 的隱私安全顧慮之后,這對手機(jī)意味著什么,其實(shí)不難想象。
而當(dāng)模型可以直接運(yùn)行在 SoC 的 NPU 上,當(dāng)系統(tǒng)級組件可以調(diào)用本地模型完成推理、生成、甚至多步任務(wù)執(zhí)行,AI 也會更進(jìn)一步變成操作系統(tǒng)的一部分。
所以 E2B 和 E4B 真正讓人興奮的地方,但不是它們的性能,而是讓人看到端側(cè) AI 的潛力還有巨大的挖掘空間。而這條路徑,一旦跑通,影響的就不只是模型本身,而是整個終端生態(tài)。
開源 AI 模型,在 Agent 時代重新洗牌
最早,Meta 用 Llama 奠定了開源模型生態(tài)的方式,但很快,從 Qwen、DeepSeek 到去年 Kimi、MiniMax 的相繼開源,中國公司已經(jīng)主導(dǎo)了全球開源 AI 的大模型格局,也在在性能、成本和落地能力上同時逼近甚至反超閉源模型。
也正是在這個背景下,再看 Google 的動作,就不只是一次模型更新了。
Gemma 過去一直處在一個略顯尷尬的位置,名義上開源,但協(xié)議并不徹底,企業(yè)用起來有顧慮,開發(fā)者也很難放心做二次分發(fā)和深度定制。這一次,Gemma 4 直接換成 Apache 2.0,本質(zhì)上是把最后一道門檻拆掉了,從「可以用」變成「可以放心用」。
![]()
圖片來源:安卓
這一步的意義,比模型本身更大。因為它等于明確了一件事,Google 不只是要做模型,還要重新進(jìn)入開源生態(tài)。
這也讓它的整體策略變得更清晰了。一邊是 Gemini,繼續(xù)對標(biāo) GPT 和 Claude,守住能力上限和商業(yè)化;另一邊是 Gemma,面向開發(fā)者、面向本地部署、面向生態(tài)擴(kuò)展。閉源和開源,不再是取舍,而是分工。
過去幾個月,真正把行業(yè)注意力拉走的,是 Agent。無論是 Anthropic 推出的 Claude Code,還是開源社區(qū)圍繞 OpenClaw 搭起來的一整套工具鏈,大家討論的焦點(diǎn)已經(jīng)不再是對話、多模態(tài),而是「干活」。
![]()
圖片來源:OpenClaw
在這波變化里,Gemini 的存在感其實(shí)不算強(qiáng)。能力依然在第一梯隊,但在開發(fā)者心智里,它并沒有成為 Agent 的首選底座。這也是為什么你會看到越來越多開發(fā)者開始轉(zhuǎn)向開源模型,哪怕能力略遜一籌,也更愿意換取可控性和可部署性。
Gemma 4 出現(xiàn)在這個時間點(diǎn),就顯得很微妙了。
一方面,它補(bǔ)上了 Google 在開源上的短板,尤其是協(xié)議問題解決之后,開發(fā)者終于可以真正把它當(dāng)作基礎(chǔ)設(shè)施來用。另一方面,它又剛好踩在「本地 Agent」這個新需求上,無論是 26B、31B,還是 E2B、E4B,都在試圖回答同一個問題:能不能把一部分 AI 能力,直接搬到設(shè)備上運(yùn)行。
這未必是最激進(jìn)的一步,但很可能是最現(xiàn)實(shí)的一步。
開源模型的競爭,正在從「誰更強(qiáng)」,變成「誰更能被用起來」。而在這個新的牌桌上,Google 終于重新坐了下來,只是這一次,它不再是發(fā)牌的人,而是必須重新爭奪籌碼的玩家。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.