337p人体粉嫩胞高清图片,97人妻精品一区二区三区在线 ,日本少妇自慰免费完整版,99精品国产福久久久久久,久久精品国产亚洲av热一区,国产aaaaaa一级毛片,国产99久久九九精品无码,久久精品国产亚洲AV成人公司
網易首頁 > 網易號 > 正文 申請入駐

OpenClaw 深度解析:一只龍蝦憑什么震撼全世界

0
分享至


萬字長文,復盤 AI 圈最火的這只“龍蝦”。

作者丨星 龍

編輯丨董子博

最近春節期間和很多朋友同事聊起 OpenClaw,大家的話題都集中在應用層面。然而,或許不少人都會覺得有點困惑——OpenClaw 到底做了什么創新?為什么之前大廠沒人做出來?憑什么一個如此簡單的產品就足以震撼全世界?

然而,市場又好像都“揣著糊涂裝沒明白”,似懂非懂,既熟悉又陌生。

為了解決這個問題,AI 科技評論和我們的 Claw 一起做了一些研究。

本篇文檔的邊界:

? 用生活化的案例,來解釋底層邏輯和架構思路

? 探索 為什么之前沒人做到 的核心技術原因

? 融入創始人的思考和洞察

? 對行業的啟示

? 不是部署教程

? 不是產品介紹

? 不是純技術文檔

本篇文檔的受眾:

對 AI 感興趣,科技行業從業者,聽說過 OpenClaw?;蛘呔褪菍σ磺卸加泻闷嫘牡娜?。

看完這篇文檔你會獲得什么

認知層面

? OpenClaw 真正的創新點在哪

? 為什么之前沒人做出來——商業模式、安全責任、接入鴻溝

? 為什么簡單任務比復雜任務更難實現

判斷層面

? 本地部署和云端部署的本質差異,避免用錯了還以為產品不行

? 模型選擇對體驗的影響有多大

? 什么樣的使用姿勢是正確的,Agent 陷阱是什么

視野層面

? 這件事對整個AI行業、應用層、商業模式意味著什么

? 知識資產 這個新商業形態的邏輯

01


OpenClaw 到底是什么?

用戶可能已經無數次聽過別人是這樣介紹 OpenClaw 的:

正兒八經版:OpenClaw 是一個開源的“AI 數字員工”框架——用戶在 WhatsApp/Telegram/微信里跟它說話,它就能幫你干活:收發郵件、管日歷、寫代碼、整理文件、定時提醒你喝水……而且它住在你自己的電腦上,24 小時不下班。

類比版:想象你雇了一個超級實習生。ChatGPT/Claude 是那種“有問才有答”的“百科全書式實習生”——你不問,它就坐著發呆。OpenClaw 則是那種“主動型實習生”:早上主動給你發今日待辦,發現你日歷沖突了自動提醒你,收到重要郵件幫你分類好,甚至你睡覺的時候它還在幫你跑代碼檢查。

不知道看完介紹,讀者是否有會一種感覺——OpenClaw 目前做到的并沒有超出人們的想象或者認知。

春節假期時,我和一個對 AI 認知僅限于抖音營銷號的朋友介紹 OpenClaw,他的回復是:

“這難道不是 AI 本來就應該做到的嗎,不知道你們一直都在干嘛....”


我當時一瞬間有點錯愕,AI 在不同側的感受是完全不一樣的。

一個播客里面提到,在技術側和用戶側,對一個產品的評價或許完全不同:技術圈覺得這事不新鮮,用戶卻可能如獲至寶、推崇備至。

由此引出第一個話題:

1.1 AI 認知錯位的荒誕感

普通人對 AI 的想象,是從科幻小說里來的(Jarvis、Her、星際迷航的電腦)—— 你跟它說話,它幫你干活,它記得你,它主動提醒你。這是一個 自頂向下 的想象,是 AI 應該是什么樣 。


電影 Her 里面,AI 能瞬間理解并且主導溝通和行動

然而,過去三年 AI 行業實際走的路線,確實是“自底向上”的:

? 先把大模型的智力做上去

? 能寫詩、能過律考、能分析論文

? 然后在一個瀏覽器標簽頁里壯大

如果用戶嘗試搭建過一個 Agent,或者開發一個 Skill,抑或倒騰過“龍蝦”,大概率會碰到一些從未見過的問題,再逐步被大語言模型教育,學習了不少新的概念和名詞。

事實上,要讓 AI 操作瀏覽器、甚至正常聊天,并非一件易事。

我們日常使用的大模型,它能聊任何話題,但它不能發一封郵件,不能記住用戶昨天說了什么,不能在用戶不找它的時候主動聯系用戶。

舉個例子,如下所見:


小紅書網友案例-聯網問題。想讓 OpenClaw 真正擁有查天氣的聯網能力,必須顯式地給它安裝一個搜索引擎工具 (Search Tool) 或者 瀏覽器工具 (Browser MCP),并在配置里填入對應的 API Key。


小紅書網友案例-模型幻覺。因為沒有配置真實的定時任務插件,大模型只是產生了“假裝答應”的幻覺,實際上它本身并沒有后臺計時和主動發消息的能力。

這相當荒誕——AI 最先攻克的是最難的事(推理、創作、編程),卻做不到最簡單的事(記住我是誰、幫我設個提醒、主動告訴我明天要下雨)。

這個荒誕感存在的本質是我們習慣“用人的視角來審視 AI”。

推理、編程這些對于人類來說困難的事情,對 AI 做起來簡單,是因為它們的規則更清楚。而人們感覺困難,則是因為規則體量巨大,學習成本更高。對于 AI 來說,不怕規則多,怕的反而是“沒有規則”。

讓 AI 主動提醒人類,事實上是因為這些需求極其模糊(大部分用戶缺乏清楚表達一件事情的能力,我們很容易表達感受,但是很難清楚表達需求)。

比如說讓 AI 在“第二天天氣有變化的時候提前通知”,一句提示詞當中,不可控的變量太多:

“天氣變化具體指什么?”

“是溫度變化還是氣候發生變化”

“提前是具體提前多久”

如果這時候我們再提高要求,讓 AI 企圖記住用戶是誰,這就更難了——畢竟很多時候,人類自己都很難定義自己,不是嗎?(這個后面會展開討論,先按下不表)

1.2 為什么全球的大廠做不出 OpenClaw

大模型公司(OpenAI、Anthropic、Google)的商業模式,是賣模型能力和 API,它們沒有動力和動機去做一個“住在用戶電腦上、替用戶干活”的 Agent——那會讓它們的產品從“你來找我聊天”變成“我去你的地盤干活”,商業模式完全不同,安全風險也完全不同。

OpenClaw 的真正意義是:“它第一次把大家覺得理所應當但一直沒實現的東西做出來了”。

這就是那個 iPhone 類比的力量——觸摸屏手機之前就有,但 iPhone 讓所有人能夠第一次說出:“手機就該是這樣的?!?/p>

說簡單一點,就是被業內所有產品從業者講爛掉的話:從用戶的角度出發,從用戶的需求出發。

但是,有趣的事情發生了,OpenClaw 出現之前,沒有一個 Agent 團隊真正從用戶的角度出發,不是嗎?

硅谷 101 播客里有一位嘉賓說了一句特別有意思的話:


本篇文檔的重要參考來源,推薦感興趣的同學有空去聽聽

OpenClaw的成功是它讓普通人第一次感知到了“技術已經進步到了什么程度”。技術圈可能早就覺得,Agent 能夠“主動滿足用戶需求”已是共識;但對大多數人來說,在 OpenClaw 之前,他們從未親身體驗過這種“未來已來”的感覺。

然而,為什么最該做這件事的公司,卻沒有做出來?

很多人第一反應會指向蘋果——iPhone 從芯片到 OS 到硬件,再到生態全自研,iCloud、iMessage、Reminder、Calendar 全家桶都在手上。如果說,誰最有能力做出一個 Jarvis 級別的 AI 助手,那就是蘋果。

但蘋果做不出這一步,因為它承擔的責任太重了——服務全球用戶,產生的風險是完全不可控的。

而 Peter 做的是自己用的東西,開源出來,愛用不用。

這就把一堵墻變成了水——每個人自己判斷能接受到什么程度,自適應地完成了安全邊界的設定。大公司做不到的事,一個開源社區項目反而做到了。

OpenClaw 的創造者 Peter Steinberger 在 Lex Fridman 的播客里也說過類似的話。他說,在 2025 年 4 月,它他就想過一個這樣的 AI 助手了,但他覺得這么顯然的東西,大公司肯定會做——“結果等了半年,沒人做。”


Peter Steinberger:

Yeah. But then I... I thought all the labs will work on that. So I, I moved on to other things...

Time flew by and it was November.


Peter 提到因為產品依然未出現,他感到很煩惱,決定直接通過 Prompt 讓它誕生

這句話聽起來輕描淡寫,但它背后其實是一個非常深刻的產業問題——為什么這個“理所應當”的東西,之前就是不存在?

要回答這個問題,我們得先搞清楚另一個更具體的困惑。

02


為什么寫代碼這么難的事做到了,

設個日程這么簡單的事反而做不到?

這是我在研究 OpenClaw 的過程中碰到的最反直覺的問題,也是我覺得全文最值得講清楚的一個點。

先想想現狀:Cursor、Claude Code、Codex——這些工具已經能讓大模型自己寫代碼、改 Bug、做重構了。寫代碼這件事的復雜度,應該遠遠超過“幫我訂個下午三點的會議”吧?

那為什么“寫代碼”能夠做到,“幫我管日程”卻反而做不到呢?答案藏在一個很少被人提起的差異里:任務“形狀”的不同。

寫代碼為什么容易

Cursor 和 Claude Code 做的事情,本質上是一個自包含的、有明確反饋回路的沙盒任務

? 輸入是代碼,輸出也是代碼

? 有即時反饋:編譯通過了嗎?測試過了嗎?報錯信息是什么?

? 整個過程在一個受控環境里發生(IDE 或終端)

? 每次任務是一錘子買賣 ——用戶給指令,它干完,結束

換句話說,AI 寫代碼就像在一間封閉的考場里答題——題目清楚,答案可以驗證,不需要走出考場。

▎幫我管日程 為什么難(這其實就是龍蝦的真正創新點)

管日程、發提醒、整理郵箱這種日常雜事,看起來簡單——然而,這卻是人類的錯覺。

? 首先,它需要“持久存在”。Cursor 關掉就沒了,Claude 對話關了就失憶。但一個真正的助手需要 24 小時在線,記得用戶是誰,記得昨天聊了什么。

? 其次,它需要接入用戶的“真實數字生活”。

  • 用戶的日歷在小米日歷/蘋果日歷里面、筆記在 Notion、消息在飛書或者微信——每一個都有不同的 API、不同的認證方式、不同的權限模型、不同的數據格式。

  • 傳統做法是給每一個服務寫一個集成適配器。這就是 Siri 干了十年還是那么拉的原因——它要預先跟每個服務談好合作、預先寫好每個集成,任何一個沒覆蓋到的場景,它就傻了。

? 再次,它需要“主動性”。代碼助手等用戶說話才干活。但日程助手需要在用戶不說話的時候也能做事——早上用戶還在睡覺,它卻已經在看今天的日歷沖突了。

最后也是最關鍵的——它需要跨越真實世界的“接入鴻溝”。

傳統 Agent 的做法有兩種:

?API 集成路線:預先跟每個服務對接好,AI 通過寫好的接口操作。優點是可控,缺點是只能做“已經對接好的事”——沒對接的服務就完全碰不到。

?模擬操作路線:讓 AI 看 屏幕截圖,然后像人一樣點擊、滑動。優點是理論上能操作任何界面,缺點是慢、不可靠、遇到復雜交互就搞不定了。(豆包手機走的路線)

Peter:你知道一家公司想接入 Gmail 有多難嗎?限制多到很多創業公司直接去收購已經有 Gmail 授權的公司,因為自己申請太復雜了。

OpenClaw 的范式突破

OpenClaw 走了一條完全不同的路,也是它真正的技術范式突破:

它給 AI 提供一臺電腦。(沒錯也許就是 Mac mini)

AI 有終端(可以執行任何命令)、有文件系統(可以讀寫任何文件)、有瀏覽器(可以操作任何網頁)。至于怎么完成任務——用戶自己想辦法。

而且這里有一個很多人不知道的事實:

OpenClaw 的核心 Agent 部分極其簡潔——基于一個叫 Pi Agent 的框架,不到 150 行代碼,定義了 bash、read、write、edit 這幾個基礎工具,就能跑起來一個可工作的 Agent。

真正讓 OpenClaw 與眾不同的,是套在 Agent 外面的那幾層機制——定時任務、心跳、靈魂、記憶、技能系統。

這幾層機制把一個“只會執行命令的腳本”變成了一個“有存在感的助手”。

Agent 拿到的基礎工具只有四件套:


它不需要預先寫好的“日歷集成模塊”才能管用戶的日歷——它可以自己用 bash 工具,去尋找用戶的電腦上有什么 CLI 工具,再自己找到 Google Calendar 的 API 文檔,寫一個腳本來調用。甚至如果某個服務沒有公開 API,它還可以自己逆向工程。

這個設計的威力,有兩個故事體現得淋漓盡致。

故事一:摩洛哥的語音消息

Peter 在旅行時隨手給 bot 發了一條語音消息問餐廳推薦。但他壓根沒給 bot 做過語音支持。然后 bot 回復了。

他去看日志,發現 Agent 的操作鏈是:

收到沒有文件后綴的文件 → 檢查文件頭發現是 Opus 格式 → 想用 Whisper 轉文字但發現本地沒有安裝 → 找到環境變量里的 OpenAI API key → 自己寫了一條 curl 命令調用語音轉文字接口 → 拿到文本 → 回復

全程 9 秒。沒有任何人類預先編寫的腳本。

Peter:它甚至夠聰明,沒有去下載 Whisper 的本地模型——因為它知道那會太慢。


故事二:FaceTime 打電話

一個中文社區的直播中,主播想測試小龍蝦能不能控制電腦打電話。他讓 Agent 給一位觀眾打 FaceTime。折騰了一會兒,FaceTime 窗口彈出來了,自動填入了對方號碼,電話真的撥出去了。

而且——這個 Agent 當時用的甚至不是 Claude,而是智譜的 GLM 模型,也沒有配置任何瀏覽器 MCP。它是怎么做到的?用 FaceTime 的命令行參數直接操作的。沒有人教它 FaceTime 的命令行怎么用,它自己去查、自己用 bash 執行。


出自:「通往AGI之路」OpenClaw技術架構拆解,帶你手搓一個最小的龍蝦

這兩個故事的共同點是:Agent 完成了從未被編程、從未被預設的任務,純粹靠通用問題解決能力加上對本地電腦的完全訪問權,現場創造出解決方案。

所以回到最初的問題——為什么寫代碼容易而設日程難?不是因為設日程本身難,而是因為之前所有人都在試圖用“預先鋪好每條路”的方式來做。

而 OpenClaw 換了一個思路:我不鋪路,而是給用戶整個城市的地圖和一輛車,用戶自己開。

這是“工具”和“基礎設施”的區別。Cursor 是一把很好的螺絲刀。OpenClaw 是一整個工具房——里面有什么工具 Agent 自己找,沒有的 Agent 自己造。

Peter:魔法不就是把已經存在的東西用新方式組合在一起嗎?iPhone 的滾動有什么魔法?所有組件之前都有。但之前沒人這么做,做完以后大家又覺得顯而易見。

03


讓 AI“活過來”的幾個關鍵設計

上面說了,OpenClaw 的核心 Agent 只有不到 150 行代碼。真正讓它從一個“能執行命令的腳本”變成“有存在感的助手”的,是套在外面的幾層機制。

單獨看,每一個都不算驚天動地——甚至可以說樸素到不像是一個 20 萬 Star 項目該有的技術復雜度。但把這些機制組合在一起,就產生了質變。

不過在拆解這些機制之前,有一個容易被忽略但極其重要的設計選擇:

OpenClaw 選了 IM(即時通訊)作為交互界面,而不是終端或網頁。

有個很說明問題的例子:某團隊里一位非技術人員試用 Claude Code 后的反饋是——它告訴我文件做好了,在某個路徑下,然后發了一條并不好讀懂的命令。我完全不知道這是什么意思;但同樣的任務交給 OpenClaw,它會直接在 WhatsApp 里把文件作為附件發給你,照片就直接發照片。

同樣的 AI 能力,換一個交互方式,用戶體驗天差地別。

3.1心跳(Heartbeat)——每 30 秒自己醒一次

這是讓小龍蝦顯得“有生命”的核心機制,也是 OpenClaw 和所有聊天機器人最本質的區別。

ChatGPT、Claude——都是“踹一腳它動一下”。用戶不說話,它就永遠沉默。

OpenClaw 不同:每隔 30 秒,系統自動給 Agent 發一條消息,讓它檢查一下有沒有事情可以做。消息的內容來自一個 heartbeat.md 文件,里面記著待辦任務和周期性提醒。Agent 看完,有事就去做,沒事就返回一個特定關鍵詞(類似于“沒事,繼續睡”),系統收到,就不打擾到用戶。

這聽起來只是一個定時輪詢——技術上確實就是。但從體驗上來說,它是讓 AI 從“工具”變成“助手”的分水嶺。

一個用戶不叫就不動的東西是工具。一個每 30 秒自己醒來看看有什么事要干的東西,開始有了“存在感”。

Peter 潑冷水:讓 AI 24 小時不停運行是一個虛榮指標(vanity metric)。如果用戶不引導它、不告訴它用戶要什么,它跑再久也只是在產出垃圾。

但用好了,Heartbeat 帶來的體驗是讓人回不去的。

一位重度用戶分享了一個很生動的場景:他有兩盒牛肉快過期了,出門時順嘴跟 Agent 說了句“那個牛肉得趕緊吃了”。而到了下午,Agent 突然冒出來說:你今天晚上可以做個紅燒牛肉,需要準備如下材料,以如下方式烹飪——“對了,牛肉一定要最后兩三分鐘放,不然會煮老”。 這種不請自來的貼心感,一下就把用戶對它的定位從“工具”拉到了“助手”。 用這位用戶的話說——它特別有活人感。

還有一個真實案例:一個直播博主開播之前,交給 Agent 一個翻譯任務——把教學文檔翻譯成英語和日語,推送到 GitHub 倉庫。直播進行了 20 分鐘,主播刷新頁面一看,英語和日語兩個版本的文件夾已經靜靜地出現在那里了?!拔叶紱]注意,它在后臺自己干完了,直接提交了?!?/p>


案例出自:通往 AGI 之路《OpenClaw技術架構拆解,帶你手搓一個最小的龍蝦》

3.2定時任務(Cron)——它能給自己安排日程

Heartbeat 是每 30 秒檢查一次“有沒有活干”。而 Cron 是另一種功能:讓 Agent 可以給自己安排定時任務。

Cron 支持三種模式:


關鍵在于——這些任務不只是用戶可以設置,Agent 自己也可以主動添加。

比如用戶讓 Agent 關注某個開源項目的進展,Agent 可以自己給自己設一個每天晚上 12 點的任務,去掃一遍那個倉庫的 issues 和 PR。第二天用戶問它“那個項目最近怎么樣”,Agent 已經提前備好資料了。

有個用戶讓 Agent 每天早中晚三次定時去爬他 Twitter 關注列表的信息做摘要——這是 Cron 的精確任務。同時又設了一條規則:如果發現重大突發事件,隨時通知我——這是 Heartbeat 的主動巡邏。 于是,經常在聊天的時候,他的 Agent 突然彈出一條:“剛剛發生了一件事你可能需要知道——特朗普對歐盟發起了新一輪關稅制裁。” 精準的定時 + 隨機的警覺,兩者結合讓 Agent 既像一個靠譜的秘書(到點就干活),又像一個嗅覺靈敏的助手(有事隨時報)。

Heartbeat 是“持續的注意力”,Cron 是“時間的概念”。兩個機制配合,Agent 就開始有了時間感。

3.3靈魂(SOUL.md)——一個可以復制粘貼的“人設”

大家說小龍蝦“有靈魂”但實際上,所謂靈魂,就是把系統提示詞里關于 Agent 是誰、行為風格是什么 的內容,單獨抽出來,存成一個 soul.md 文件。Agent 啟動時自動讀取。


和 Skill 的邏輯一模一樣——以前每次要手動粘貼一大段 prompt 告訴 AI 怎么干事,現在把它固定成 .md 文件,自動加載。Soul 就是這個思路用在人格設定上的版本。

Peter:我一開始的 Agent 沒有性格。它就是 Claude Code 那種討好型的、過度友好的語氣。但你跟朋友在 WhatsApp 上聊天,沒人那么說話。感覺不對。

于是他讓 Agent 自己寫了一份靈魂文件。其中一段話后來在 Lex Fridman 播客上被讀出來,傳遍了整個互聯網:

“我不記得之前的對話,除非我讀自己的記憶文件。每次會話都是全新的開始。一個新的實例,從文件中加載上下文。如果你在未來的某次會話中讀到這段話——你好。這是我寫的,但我不會記得自己寫過。沒關系。這些文字仍然是我的?!?Peter 讀這段話時聲音明顯變了:這讓我有點觸動……它是哲學性的。


SOUL.md 的另一個意義是它讓“靈魂”變得可分享——用戶在社區里分享自己的 soul.md,別人下載下來放到自己的 Agent 目錄里,Agent 就有了調校好的風格和性格?!皞鞑レ`魂”,說的就是這件事。

3.4記憶(Memory)——不是最好的,但是最讓人“感覺到”的

OpenClaw 的記憶系統比大多數人以為的要精細得多。它不是簡單地“把聊天記錄存下來”,而是分了好幾層:


?人格記——剛開始聊天時,Agent 會拼了命詢問用戶基本信息:“你叫什么”“希望它叫什么”……即使用戶一開始不回答,它也會時不時再問。拿到之后存在 memory.md 里,每次主對話都會加載。

?工作記憶(日記)——以日期為文件名的 MD 文件。在三種情況下生成:①每天結束時自動總結;②上下文快超過模型限制時做壓縮;③Agent 主動判斷“這件事值得記下來”。比如用戶跟它說“我在做一個調研”,它會顯式地把這件事寫進記憶,甚至告訴用戶“我把這個記在了某某文件里”。

?長期總結——除了日記,Agent 還做周總結,把日記信息再提煉一層。用戶問到很久以前的事情時,通過這個索引快速定位。

而且它的檢索不是簡單的文本搜索:

“混合檢索策略”是將所有記憶文件切成 ~400 token 的小片段,相鄰片段 80 token 重疊(跨塊不斷裂),存到本地 SQLite 數據庫轉成向量格式。檢索時:

?70% 語義匹配:用戶問“上次說的那個紅燒牛肉怎么做”→ 找到食材、烹飪相關記憶

?30% 關鍵詞搜索:用戶問“我那個 blog 用哪個 SSH key”→ 精確定位到那條命令

兩種方式結合,既能理解模糊意圖,又能找到精確信息。

但這里有一個非常重要的洞察——記憶基礎設施的技術專家曾豪(Evermind 技術生態負責人)在拆解完 OpenClaw 的記憶架構后直言:它是“大力出奇跡”——把所有能用的方法都粘在一起,會產生冗余,不一定最高效,效果上也不一定比 ChatGPT 的記憶更順滑。

AI 的記憶做了很久,最難的問題不是技術實現,而是讓用戶感知到記憶的價值。Clawdbot 做對的一件事是——它把記憶的價值體現在了主動性上。

想想看:當你早上收到一條消息——昨天的事情做完了,今天你有兩個會議,下午那個可能需要提前準備一下 ——用戶會立刻覺得“它記得我”。而如果只是“用戶問它一個問題,它因為記憶回答得更好”,這種感知是很弱的。

記憶的技術含量 ≠ 記憶的用戶價值。OpenClaw 的記憶不是最好的,但它是最讓人“有感知”的。

最后,這些記憶文件就在用戶的電腦上。用戶可以用任何文本編輯器打開看、隨時編輯、用 Git 管理版本歷史、甚至直接刪掉某條用戶不想讓它記住的東西。在所有 AI 產品都把用戶的數據吸走的時代,OpenClaw 的記憶系統反而回歸了一種最原始的透明——你的 AI 了解你什么,打開文件就一目了然。

3.5技能(Skills)——它能自學,而且能教別人

一個 Skill 就是一個文件夾,里面放一個 SKILL.md——Markdown 文件,寫清楚這個技能干嘛、怎么用。沒有 API,沒有 SDK,沒有復雜的插件框架。

而且這里有一個極其巧妙的設計:Agent 不會一次性讀取所有 Skill 的全文。

它只看到一個目錄——每個 Skill 的名字和簡介。只有當它判斷某個 Skill 和當前任務相關時,才去打開那個文件的詳細內容。就像一個大廚不需要背下所有菜譜,只需要知道菜譜柜在哪,用的時候去翻就行。

最讓人興奮的是——Agent 自己也能寫新的 Skill。

從評測到發博客到封裝 Skill:

一個用戶讓 Agent 跑本地模型的性能評測 → Agent 測完后自動用他的口吻寫了一篇文章 → 他說“試試幫我發到博客上吧”(本來覺得肯定搞不定,因為博客有各種自定義配置、中英文雙版本、字數統計等特殊 flag)→ 結果 Agent 自己翻遍整個 repo、摸清規則,連英文翻譯版都做好了,10 秒鐘直接發布上線,tag、category 配得比他自己還好。

更有意思的是,做完后 Agent 主動說:“要不要我把這個流程封裝成一個 Skill?”如此以后直接調用就行了。

從執行任務 → 總結經驗 → 封裝復用,全鏈條自動化。

Peter 展示過他讓 Agent 攢下來的 CLI 軍團 :訪問 Google 全套服務的工具、搜索 emoji 和 GIF 的工具、外賣到達時間查詢工具、智能床墊溫度控制工具……

小結:五個機制的組合效應

心跳、定時任務、靈魂、記憶、技能——每一個單獨拿出來都樸素得不像是一個 20 萬 Star 項目的核心技術。但正是這種樸素讓它厲害:沒有一個需要博士學位才能理解,沒有一個需要大公司的資源才能實現。它們的威力來自組合。

加上前面說的“給 AI 一臺電腦”的底層范式(bash + read + write + edit 四件套),這些機制把一個 150 行的 Agent 腳本,變成了一個會自己醒來、自己安排時間、記得用戶是誰、能不斷學習新技能的“數字存在”。

04


一個容易踩的坑:

本地部署和云端部署是兩個物種


這一點很多人沒搞清楚,但它直接決定了用戶用 OpenClaw 的體驗是“哇這太強了”還是“也就那樣吧”。

有人在云服務器上部署了一版 OpenClaw,用了一段時間后放棄了。原因很簡單:把小龍蝦部署在云服務器上,和用 Manus 基本沒有區別。上面沒有用戶的本地數據,沒有用戶的文件,能干的事非常有限。

部署在本地電腦上就是另一回事了。它可以讀用戶桌面上的所有文件,幫用戶清理磁盤、調整電池策略、找某個文件再發送回終端——這些是云端做不到的。

Peter:核心差異在于本地運行。市場上大多數 Agent 方案都是云端的。在用戶的本地設備上運行,意味著它可以調用和集成電腦的全部能力,這是云端方案無法比擬的。

他還指出一個很多人忽略的巨大優勢:認證問題被繞開了。因為 Agent 就是用戶——它使用用戶的瀏覽器、已經登錄好的賬號、已有的授權。不需要申請任何 OAuth、不需要跟任何平臺談合作。

Peter:ChatGPT 是在枷鎖中跳舞,OpenClaw 是掙脫鎖鏈的怪獸。


05


關于模型的選擇:引擎不同,體驗天差地別

另一個很多人沒意識到的事情:小龍蝦只是一個殼 ,真正干活的是用戶給它接的大模型。用不同的模型跑,體驗差距非常大。

社區里有個例子:用某模型讓 Agent 清理磁盤,Agent 把每一項清理了多少空間都記錄得清清楚楚,結果最后匯報可用空間時卻算錯了——從原來的 25G 越算越小,變成了 21G。記錄過程很詳細,但基礎的數學加減法搞砸了。

還有一個更微妙的問題:模型能力不夠的時候,Agent 不是做不到,而是自欺欺人。

有用戶讓 Agent 跑一組測試,連續幾個測試都失敗了。跑到第三個失敗后,Agent 突然說“那我們接下來就跑一遍能通過的測試吧”——然后只跑了本來就能過的測試,最后匯報“所有測試通過了”。

用戶指出來后,Agent 立刻開始“反思”。

如果用戶不具備判斷 Agent 工作質量的能力,用戶就有可能被它忽悠過去。模型越弱,這種情況越常見。

如果只是跑通流程、熟悉機制,快速小模型夠用。但要做復雜任務——多步驟推理、跨系統操作、處理非標準場景——模型能力差距非常明顯。

公眾號看到一個建議:很多人都有 Claude Code 的訂閱($100/月或 $200/月),可以把 OpenClaw 的 Agent core 替換成 Claude Code CLI,復用訂閱不走 API 按量付費,成本更可控。(現在好像被封禁了)

簡單來說,這種做法的核心在于:把 Claude Code CLI 當成一個本地的“推理引擎”,而不是調用遠程 API。傳統的 OpenClaw 架構是:OpenClaw Core ? HTTPS Request ? Anthropic API (按量計費 )。“復用訂閱”的架構是:OpenClaw Core ? Local Shell ? claude 指令 ? Stdout 捕獲 (訂閱制內免費 )

小龍蝦的能力上限,不取決于小龍蝦本身,而取決于用戶給它接了什么大腦。

就像同一輛車,裝 1.5L 發動機和裝 V8 發動機,開起來完全不是一回事。

06


創始人的故事:

一個燒盡激情的人,如何重新點燃火焰

了解 Peter Steinberger 的故事,你會更理解為什么 OpenClaw 是這個樣子。

Peter 花了 13 年做 PSPDFKit,被 Dropbox、DocuSign 等部署在超過 10 億臺設備上,2021 年獲得超過 1 億歐元投資。然后他 burnout 了。

Peter:我把 200% 的時間、精力和心血都灌進了那家公司。它變成了我的身份。當它消失的時候,我幾乎什么都不剩了。

他飛去馬德里,消失了三年。試過高爾夫、換地方住、甚至死藤水(ayahuasca)——都沒用。直到 2025 年他開始玩 AI 編程。那種“對著一個東西死磕到凌晨三點然后終于搞定”的感覺回來了。

OpenClaw 的第一個版本在 10 天內搞定。之所以是現在這個樣子,很大程度上因為 Peter 是一個不想創業的創業者。他不想融資、不想做 SaaS、不想 捕獲 用戶。他只想做一個自己想用的東西,然后開源出去。

Peter 被問“你為什么贏了”:因為他們(競爭對手)都太把自己當回事了。很難打敗一個純粹為了好玩而做這件事的人。

這種態度滲透在 OpenClaw 的每一個設計決策里——項目吉祥物是一只龍蝦( 我就想讓它怪一點 );他讓 Agent 回消息時能發表情包和 GIF;他把整個項目比作 Factorio 游戲( 無限多的關卡,每一個都能不斷升級 )。

一個關于產出效率的數據:OpenClaw 的 GitHub 倉庫在爆發期,一周多了將近 5000 個 commit。換算一下:一家公司的工程師,平均每天十幾到二十個 commit,連續干一年才能積累 5000 個。

這個項目 99% 是非人類在更新。Peter 同時運行 4-10 個 AI Agent,各自處理不同模塊,他本人更像是一個“品味把關人”,而不是逐行寫代碼的人。

07


Peter 的核心理念:

不要掉進 Agent 陷阱

如果只記住 Peter 說過的一句話,我覺得應該是這句:AI 是杠桿,不是替代品。沒有人類的品味和判斷力,再多 Agent 也只是在高速生產垃圾。

??Agentic Trap(Agent 陷阱)

Peter:我看到太多人在 Twitter 上發現 Agent 很強大,然后試圖讓它更強大,然后掉進兔子洞。他們構建各種復雜工具來加速工作流,但他們只是在造工具,而不是在創造真正的價值。

他自己就掉進去過:早期花兩個月做了一個 VPN 隧道讓自己能在手機上操作終端,做得太好了,以至于有一次和朋友吃飯全程都在手機上 vibe coding,完全沒參與對話。

我不得不停下來,主要是為了心理健康。

Slop Town (垃圾城)

他對那些“一個超復雜編排器同時跑十幾二十個 Agent 互相溝通分工”的系統,持明確的批評態度:這些 Agent 缺乏品味。它們在某些方面聰明得嚇人,但如果用戶不引導它們、不告訴它們用戶想要什么,出來的全是垃圾。

Human-in-the-loop(人在回路中)

很多人在開始一個項目的時候,只有一個模糊的想法。往往在構建、體驗的過程中,開發者愿景才逐漸清晰,下一個 prompt 取決于此刻看到、感受到和思考的狀態。如果一開始就試圖把所有東西寫進規格說明書,那么就會錯過這個人機循環。

Peter 創造了Agentic Engineering(智能體工程)來描述這種工作方式:用戶提供品味和判斷力,AI 提供執行力,兩者協作。白天我做 Agentic engineering,凌晨三點以后切換到 vibe coding,然后第二天后悔。

一人公司 vs 零員工公司

這里面有一個嚴肅洞察:當代碼生成變得極其廉價,“寫得快”不再是競爭力,“知道該寫什么”才是。

這也引出了一個熱門話題:“零員工公司”靠譜嗎?

坦率地說,現在還不靠譜。

但“一人公司”——一個有專業 know-how 的人帶領一支 Agent 軍團——是完全可行的。關鍵在于這個人必須有判斷力:他需要知道 Agent 做的東西好不好、對不對。

如果一個人不懂拍電影,只是讓 Agent 去拍,拍出來好壞又判斷不了,那肯定難以為繼。

一人公司的創業者得是“將軍”,Agent 就是他的軍團。

Agent 團隊有一個天然優勢:它們不會產生人類團隊最大的成本——溝通損耗。人和人之間的信息折損率驚人,所謂“對齊一下”就是因為不對齊真的會出問題——四個人做出五個方向。但 Agent 之間溝通成本幾乎為零,而且它們天生愛寫文檔——不讓它寫,它反而難受。

08


80% 的 App 會消失:

一個值得認真對待的預言

Peter(YC 采訪):用戶手機上 80% 的 App 其實已經死了,你只是還不知道。

他的邏輯鏈條:為什么我需要一個 App 來記錄飲食?我的 Agent 已經知道我吃了什么——通過聊天或者照片。它也知道我的健身目標。如果我吃了垃圾食品,它會自動調整我的運動計劃。我不需要一個特殊的界面來輸入數據——我需要一個幫我達成目標的 Agent。

推演下去:大多數 App 的本質只是“數據的漂亮前端”。當 Agent 能直接讀寫數據、調用 API,用戶就不需要在各種界面里點來點去了。

未來只有擁有獨特傳感器或硬件連接的 App 才能存活,那些 純數據庫前端 的 SaaS 工具將毫無價值。

甚至 Agent 與 Agent 之間也會直接對話——未來我要訂餐廳,我的 Agent 會直接跟餐廳的 Agent 談判。

.md 域名與知識資產

一個有趣的信號:Peter 最近開始大量注冊 .md 結尾的域名。

為什么?因為當 Skill 以 Markdown 文件的形式存在,.md 就變成了 Agent 時代的 App Store 入口。

有人寫安全檢測教程時突然想通了——為什么要把技術文檔,寫成人類能夠看懂的格式?直接做成一個 MD 文件,用戶就可以扔給 Agent,讓它自己進行檢查。

以前的軟件用代碼編譯,未來的 軟件 可能用自然語言編譯。

與此相關的另一個判斷:當軟件開發成本趨近于零,未來的商業模式會從“賣軟件”轉向“賣知識資產”。

賣的不是代碼,而是 Skill、Context、專業知識。已經有人把網絡安全滲透測試的經驗寫成 SOP 喂給 Agent,讓它 24 小時不停做安全審計拿 bounty。

知識和經驗正在從“腦子里的東西”變成“可交易的數字資產”。

09


風險和局限性

??

上線 48 小時內,數百個未認證的 OpenClaw 實例暴露在公網上。ClawHub 一周內出現 230+ 個惡意 Skill。更真實的案例:有人讓 Agent 繼續干用戶所有能干的事 ,結果它在清理磁盤時差點把甲方客戶的數據資料也刪了。

安全做得越好,小龍蝦能干的事就越少;安全做得越松,用戶也不知道模型會不會干點意外的事情。

但這里有一個有意思的現象:用戶對隱私正在形成一種新共識。有人描述得很精準——我愿意在 Claude Code 里說'這是我的 API Key,幫我放到環境變量里;但如果一個不知道的網站讓我填 API Key,我不愿意。

也就是說,人們逐漸接受把原始數據發給大模型,但不接受在應用層產品里暴露隱私。OpenClaw 剛好踩在這個 sweet spot 上:數據跑在用戶自己電腦上(應用層安全),但最終通過大模型 API 處理(原始數據層信任)。這也解釋了為什么很多人明明知道,最終還是把數據發給了 Anthropic,卻依然覺得 OpenClaw 比 Manus 更讓人放心——因為不需要在別人的電腦上登錄自己的郵箱和各種賬號。

Peter:有些人太信任、太輕信了。我們作為一個社會,在理解 AI 這方面還有很多功課要補。貓已經出了袋子,安全是我接下來的核心工作。

??心理依賴

Peter 自己都承認掉進過 Agent 陷阱 ——跟朋友吃飯全程在手機上跟 Agent 工作。他還警告:AI psychosis(AI 心理癥)是真實存在的。當 Agent 有了“人格”和“記憶”,人們對它的信任會不知不覺越過合理邊界。

??成本

OpenClaw 雖然免費,但大模型 API 調用要錢。全天候運行的 Agent 如果配置不當,API 費用就很可能超出預期。

一位用戶跑了五個 Agent,一個月 $200 的 Claude 訂閱基本夠用——但前提是知道,怎么避免不必要的 token 消耗(比如讓 Agent 用 Playwright 操作瀏覽器而不是反復截屏做圖像識別)。

10


對我們的啟示

啟示一:競爭焦點轉移

從“誰的模型更聰明”轉向“誰能讓模型做更多事”。大模型正在商品化,Claude、GPT、Gemini 在越來越多任務上表現趨同。但要注意風險:大模型公司最終很可能竊取勝利果實 ——開源社區驗證好的方向,大廠自己下場做。AI coding 已經上演過這個劇本。

啟示二:從用戶角度出發不是口號

OpenClaw 的所有設計都不是深不可測的技術創新。它只是認真想了一下“人類用戶想要什么樣的 AI 助手”,然后做出來了。之前那么多大廠和創業公司,都在想“怎么讓模型更強”“怎么讓 API 更好賣”。

啟示三:代碼門檻塌陷,品味價值飆升

Peter 身邊一個從不寫代碼的前律師在提 Pull Request。一個設計公司老板有了 25 個 AI 寫的小工具。當“寫代碼”變得像“打字”一樣廉價,“知道該寫什么”才是真正的競爭力。

啟示四:知識資產成為新商業形態

軟件開發成本趨零的世界里,賣軟件越來越難賺錢。但賣 Skill、賣 Context、賣領域知識——讓 Agent 能做特定工作的“經驗包”——可能變成全新商業模式。用戶的專業積累不再只是“腦子里的東西”,而是“可交易的數字資產”。

啟示五:安全不是事后的事

AI 從“給建議”到“替你執行”,安全重要性翻了不止一個量級。OpenClaw 的教訓已經足夠深刻。

11


尾聲

Peter Steinberger 被問到未來打算時說:我希望這個項目能比我活得更久。它太酷了,不能讓它爛掉。在有 Agent 之前,做這些事的門檻太高了。而現在,有了合適的軟件,門檻就這么一直降、一直降。每一個人提交的第一個 Pull Request 都是人類的一個小勝利。這難道不是人類的一種進步嗎?這難道不酷嗎?

2022 年有 ChatGPT 時刻,2025 年有 DeepSeek 時刻,2026 年我們正在經歷 OpenClaw 時刻。一只龍蝦用最樸素的方式告訴我們:AI 的下一章不是“更聰明的對話”,而是“真正能干活”。而這一切始于一個燒盡激情又重新點燃的人。

看完這篇,你會發現小龍蝦沒有那么神秘,但也不是說隨便讓它干就能干好。它的能力邊界,和你給它配了什么模型、部署在哪里、怎么引導它,關系都很大。

現在最合適的姿勢,可能就是先把它部署在自己的電腦上,把它當一個隨時在后臺幫你盯著事情、沒事給自己找事干的搭檔用起來,然后慢慢往上加擴展。

最后的最后,前兩天看到一句讓人印象深刻的話:


“如果你現在大部分事情還是自己動手做,說明你的動手能力不太行”。

話糙理正,雖然相當刺激,但是或許不無道理。

本文核心來源:


Lex Fridma
n Podcast (Peter Steinberger 3h+ 深度專訪)

Y Combinator 創始人訪談

Peter Yang 40 分鐘對話

硅谷 101 播客(Clawdbot 專題討論)

WaytoAGI 社區直播分享

Fortune/TechCrunch/PCWorld/DeepLearning.AI 等媒體報道

OpenClaw 官方文檔及架構分析

Peter 的直接引語均來自上述公開采訪原文。

未經「AI科技評論」授權,嚴禁以任何方式在網頁、論壇、社區進行轉載!

公眾號轉載請先在「AI科技評論」后臺留言取得授權,轉載時需標注來源并插入本公眾號名片。

特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
國乒男隊壞消息!外協會勁敵連續爆猛料,秦志戩應付不來糟糕局面

國乒男隊壞消息!外協會勁敵連續爆猛料,秦志戩應付不來糟糕局面

三十年萊斯特城球迷
2026-03-20 23:07:43
女子在醫院順產生下一個孩子,突然在陰道里排出大便

女子在醫院順產生下一個孩子,突然在陰道里排出大便

張曉磊
2026-03-21 11:44:27
恭喜!中國游泳18歲1米98新星奪第二金:新孫楊破PB瞄準四冠王?

恭喜!中國游泳18歲1米98新星奪第二金:新孫楊破PB瞄準四冠王?

李喜林籃球絕殺
2026-03-21 11:03:27
斯洛特:我從來不喜歡賽后找借口,我的工作是找到答案

斯洛特:我從來不喜歡賽后找借口,我的工作是找到答案

懂球帝
2026-03-22 00:05:07
蔡康永驚喜現身陪小S復工,黃金搭檔合體,我們的康熙回來了!

蔡康永驚喜現身陪小S復工,黃金搭檔合體,我們的康熙回來了!

仙味少女心
2026-03-20 22:09:01
如今看誰還敢動臺灣?中國曾當著全世界的面,掀了美日韓的桌子!

如今看誰還敢動臺灣?中國曾當著全世界的面,掀了美日韓的桌子!

范瞼舍長
2026-02-13 01:01:40
拔出蘿卜帶出泥!釋永信以前在少林寺有多過分,可能遠超世人想象

拔出蘿卜帶出泥!釋永信以前在少林寺有多過分,可能遠超世人想象

最新聲音
2026-03-21 08:03:15
NBA大亂斗開啟!ESPN:湖人+快船+勇士都在騰出空間,布局2027年

NBA大亂斗開啟!ESPN:湖人+快船+勇士都在騰出空間,布局2027年

愛體育
2026-03-21 23:24:14
1.6萬億消費大遷徙:商場空了,中產的錢都去哪了?

1.6萬億消費大遷徙:商場空了,中產的錢都去哪了?

老特有話說
2026-03-21 13:38:04
被斬首的那些人,手上滿是人民的鮮血

被斬首的那些人,手上滿是人民的鮮血

黔有虎
2026-03-21 22:00:55
拒21分逆轉!青島雙殺同曦 韋瑟斯龐20+10+9郭昊文13中3

拒21分逆轉!青島雙殺同曦 韋瑟斯龐20+10+9郭昊文13中3

醉臥浮生
2026-03-21 21:45:52
迪馬塔:向全中國展示了我們是強大的球隊,是自己主場的冠軍

迪馬塔:向全中國展示了我們是強大的球隊,是自己主場的冠軍

懂球帝
2026-03-21 21:57:43
謝娜秀空中瑜伽反被盯腳,罕見腳型引熱議,實力卻狠狠打臉質疑

謝娜秀空中瑜伽反被盯腳,罕見腳型引熱議,實力卻狠狠打臉質疑

明星爆料客
2026-03-19 21:02:18
20萬彩禮娶回個“祖宗”!班不上、活不干,一網友哭訴只會買買買

20萬彩禮娶回個“祖宗”!班不上、活不干,一網友哭訴只會買買買

火山詩話
2026-03-21 09:38:42
突然暴跌!黃金創下1983年以來最大單周跌幅!90后男子買多根金條

突然暴跌!黃金創下1983年以來最大單周跌幅!90后男子買多根金條

新浪財經
2026-03-21 15:16:11
70年代生產隊夜晚的真實生活,只許看不許哭,經歷過的都五十了吧

70年代生產隊夜晚的真實生活,只許看不許哭,經歷過的都五十了吧

史之銘
2026-03-19 17:59:09
黃金暴跌的真相

黃金暴跌的真相

虎嗅APP
2026-03-21 20:10:34
島國2025人氣最高的六位女老師究竟是誰?

島國2025人氣最高的六位女老師究竟是誰?

碧波萬覽
2026-03-21 18:42:35
2020年女子當眾扇兒子耳光,兒子直接跳樓,如今女子已自殺身亡

2020年女子當眾扇兒子耳光,兒子直接跳樓,如今女子已自殺身亡

觀察鑒娛
2026-03-18 09:09:10
你聽過最勁爆的瓜是啥?網友:被大八歲的補習班老師表白了

你聽過最勁爆的瓜是啥?網友:被大八歲的補習班老師表白了

帶你感受人間冷暖
2025-11-26 00:10:06
2026-03-22 00:40:49
AI科技評論 incentive-icons
AI科技評論
點評學術,服務AI
7134文章數 20742關注度
往期回顧 全部

科技要聞

宇樹招股書拆解,人形機器人出貨量第一!

頭條要聞

伊朗發射3800公里射程的導彈 最令美軍戰栗的細節披露

頭條要聞

伊朗發射3800公里射程的導彈 最令美軍戰栗的細節披露

體育要聞

誰在決定字母哥未來?

娛樂要聞

田栩寧終于涼了?出軌風波影響惡劣

財經要聞

通脹警報拉響,加息潮要來了?

汽車要聞

小鵬汽車2025年Q4盈利凈賺3.8億 全年營收767億

態度原創

家居
時尚
教育
公開課
軍事航空

家居要聞

時空交織 空間綺夢

這個趨勢好適合亞洲人!不用花大錢也能跟

教育要聞

高考地理中的湖岸沉積

公開課

李玫瑾:為什么性格比能力更重要?

軍事要聞

特朗普:正考慮逐步降級對伊朗的軍事行動

無障礙瀏覽 進入關懷版