機器之心編輯部
在 iPhone 上跑 Gemma 4,相信很多人都嘗試過了。從大家的反饋來看,模型的可玩性還是很強的,聊一些簡單問題也很流暢,只是在上下文變長、開啟深度思考時速度會變慢,而且會有手機發燙、耗電飛快等問題(詳細反饋參見這篇文章的評論區:《iPhone 本地跑 Gemma 4 火了,0 token 時代還有多遠?》)。
此外,最近還有不少人在研究另一種玩法:在電腦上運行 Gemma 4 并將其與龍蝦(OpenClaw)連接
一開始,大家只是自己小范圍嘗試,比如有一個博主說自己在 Mac Studio 上安裝了 Gemma 4 31B 版本,并聲稱由于這種本地部署不花 token 費用,這臺 Mac Studio 3 個月就能回本。當然,這種說法是否站得住腳,還得看模型性能是否真的那么能打。
![]()
今天,谷歌 Gemma 官方也下場了,直接教大家如何分三步把 Gamma 4 和龍蝦連上。
![]()
做法其實很簡單。第一步:下載安裝 ollama:https://ollama.com/download
![]()
第二步:將 Gemma 4 的合適版本(官方推薦的是 26B A4B)下載到你的機器上。你也可以跳過此步驟,因為步驟 3 會處理所有事項。
![]()
第三步:通過 Ollama 以 Gemma 4 為后端啟動 OpenClaw。這將自動在你的系統上安裝 OpenClaw 并使用 Gemma 4 26B A4B 啟動它。
![]()
當然,具體選哪個版本的 Gemma 4,還要看你電腦的配置情況,有人給出了以下參考建議,看來,要想運行官方推薦的 26B A4B 版本,你得買一臺 Mac Studio M4 Pro 48GB 或與之相當的機器。
![]()
至于顯存,不同的機器要求也不一樣,如果是 Mac Studio M4 Pro 48GB,16GB 可能就夠用了。如果是配置 GPU 的筆記本電腦,顯存可能至少要達到 18GB。
![]()
![]()
看了谷歌官方給的這個教程,有人感慨地說:Gemma 4 + OpenClaw 的整個流程超級干凈,就三步,清晰直接,沒有任何彎彎繞繞、隱藏依賴、provider 配置、endpoint 調不通、embedding 缺失、模型不響應這些破事。以前做本地 Agent 的人,經常要花好幾天調各種細節、debug 文檔里根本不寫的坑、面對 API 貴、模型卡死、上下文爆炸、今天能跑明天就崩的問題。所以這次發布真正厲害的不是模型本身「輕量又強」,而是終于把「本地跑 Agent」從一場每天都在打的苦戰,變成了真正可復制、簡單可用的東西。
![]()
那跑起來效果怎么樣呢?從反饋來看,即使是最大版本的 Gemma 4,智力水平上和 Opus 等頂尖模型肯定還是差一大截,而且在調用工具、長上下文等方面短板明顯。這讓很多人質疑本地部署這一模型的實用性。
![]()
![]()
![]()
但也有人指出,其實很多人用龍蝦處理的任務都相當簡單,比如做簡報、會議轉錄和一些定時任務,這類任務讓本地模型去跑還是很實用、很劃算的。
![]()
![]()
![]()
此外,還有一個值得關注的問題,在 OpenClaw 里用小模型到底安不安全?
龍蝦之父 Peter Steinberger 曾在采訪中說,他奉勸大家不要用廉價的小模型或本地模型,因為這類模型很容易受到提示注入攻擊,更加智能的模型在一定程度上更容易識別出這種攻擊。
![]()
所以,這種部署方式到底要不要嘗試,大家還得自己掂量一下。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.