3 月 30 日,一則來自 GitHub 社區的消息,瞬間引爆整個開發者圈子。
螞蟻集團旗下的 AI 安全實驗室,近期對開源智能體框架 OpenClaw 進行了一次專項安全審計。在為期三天的檢測中,團隊共提交了 33 個漏洞報告,而在最新發布的 2026.3.28 版本中,OpenClaw 已確認并修復其中 8 個漏洞,包括 1 個嚴重級別漏洞、4 個高危漏洞以及 3 個中危漏洞。
![]()
(圖源:GitHub)
這令人擔憂的其實是 OpenClaw 所代表的,并不是傳統意義上的開發工具,而是當下最熱門的一類 AI 產品形態——Agent。過去一年,隨著大模型能力逐漸趨于穩定,行業討論的重心也開始發生變化。從最早的“模型能力競賽”,逐步轉向“應用如何真正落地”。在這個過程中,Agent 是最重要的一個部分,它不只是用來生成內容,而是可以調用工具、執行任務,甚至直接參與到系統操作中。
傳統的大模型應用,風險更多集中在內容層面,比如生成錯誤信息、不當回答,或者輸出不可控內容,本質上還是說錯話。而 Agent 的邏輯不同,它的行動能力是最重要的,例如可以調用系統資源、訪問本地文件、執行指令鏈路。也就是說,Openclaw 的漏洞,是真的存在各種難以預料的安全風險。
![]()
(圖源:Openclaw)
目前公開信息并未披露此次漏洞的具體技術細節,但從嚴重、高危這樣的評級來看,可以確定的是,這些問題很可能涉及到權限控制、執行鏈路或調用機制等關鍵環節。換句話說,一旦被利用,影響范圍不再局限于信息層面,而是可能觸及系統本身,比如個人信息的泄露、財產安全問題等等。
從行業來看,Openclaw 所面臨的問題其實也是所有 Agent 共同面對的挑戰,在過去一年里,行業幾乎把所有精力都投入在讓 Agent 更聰明,例如更復雜的任務步驟拆解、調用更多工具和 Skill 解決問題、更強的自動任務執行等,但權限隔離、風險控制、執行邊界,似乎很少被討論。
不過,這次曝出大量漏洞的螞蟻集團旗下的 AI 安全實驗室,之所以能夠最早發現問題,其實是它們早在大模型尚未全面爆發之前,其團隊就已經圍繞“可信 AI”展開研究,包括對抗攻擊、數據安全等方向,隨后還發布過《終端智能體安全2025》白皮書,結構 AI 的安全風險等等。
![]()
(圖源:螞蟻集團)
此外,螞蟻在內部也已經搭建起面向大模型的安全體系,例如針對提示詞注入、工具調用鏈路以及數據泄露風險的檢測機制,逐步覆蓋從輸入到執行的完整鏈路。這些能力,恰好對應的正是當前 Agent 最容易出現問題的幾個關鍵環節。
回到此次 Openclaw 漏洞報告的問題,其實倒也是一件好事。這說明,漏洞在較短時間內被集中發現并修復,它的開源生態與安全團隊之間的協作發揮了較大的作用;另一方面,像螞蟻這樣的安全團隊主動參與,也意味著行業開始更重視 AI 的安全風險。
而這件事也提醒了我們,Openclaw 引領的自動化 Agent 的確正在深入地幫助我們更好地完成各種繁瑣的工作,但在把任務交給 AI 之前,安全仍然是所有用戶都需要重點關注的問題。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.