![]()
谷歌今天把AI圈的參數迷信按在地上摩擦。Gemma 4系列正式發布,9B版本在多項基準測試里把Qwen 72B、Llama 3 70B這些"大塊頭"按著頭打。換句話說,谷歌用十分之一的體型,辦成了別人十倍人力的事。
這事魔幻的地方在于訓練成本。Gemma 4用了英偉達B200集群,單節點就能跑完整訓練。對比之下,同級別的模型通常要動用幾百張卡、燒掉幾千萬美元。谷歌沒公布具體數字,但放話稱這是"最高效的開放模型之一"——「我們證明了規模不是唯一答案」。
技術細節藏得挺深。官方只透露用了"多模態后訓練"和新的數據篩選管線,具體配方閉口不談。開發者社區已經炸鍋,Hugging Face上有人吐槽:"我的72B模型剛部署完,現在告訴我9B就能干同樣的事?"
更扎心的是商業條款。Gemma 4允許月活4000萬以下的產品免費商用,超過才需要談授權。這刀法精準得像產品經理算過賬——既討好中小開發者,又給大廠留足談判空間。有獨立開發者在X上曬圖:把Gemma 4 27B塞進單張4090,推理延遲比API調用還低。
谷歌DeepMind負責人Demis Hassabis轉發了基準對比圖,沒配文字。但評論區最高贊說透了大家的心思:"參數戰爭結束了,現在比誰更會減肥。"
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.