![]()
作者 | 木子
Anthropic“手滑”泄露了最強新模型,但更戲劇的是,他們本來還不太敢發。
因為這個模型發現漏洞、攻擊漏洞的“黑客能力”太強了。
據《財富》消息,Anthropic 在未公開的草稿中指出:
“與此前最強模型 Claude Opus 4.6 相比,Capybara(卡皮巴拉,新模型的內部代號)在軟件編程、學術推理和網絡安全等測試中取得了顯著更高的分數。”
![]()
這個“卡皮巴拉”其實還有個真名,叫“Claude Mythos”(直譯過來就是“神話”)。
目前,Anthropic 的 Claude 模型分為三檔:
Opus:最大、最強
Sonnet:次強、更快更便宜
Haiku:最小、最快、最便宜
而“神話”Mythos,“模”如其名,確實也是一個比 Opus 更強、更昂貴的新層級。
![]()
從表面上看,Mythos 在編程、推理,以及網絡安全測試中的表現提升,像是三項獨立能力的增強。但在安全領域,這三者實際上恰恰能構成一條完整的“攻擊能力鏈”:
首先,編程能力決定模型能不能真正“看懂系統”:不僅是讀代碼,還包括理解模塊之間如何交互、邏輯是怎么實現的;而且還可以在需要時,把這些理解轉化為可執行的利用代碼(exploit)或自動化腳本。
其次,強悍的推理能力可以做“攻擊路徑的規劃”:在一個由多個組件組成的系統里,模型需要一步步推導,比如從哪里切入、如何繞過限制、怎樣逐步提權,最終觸達真正有價值的目標。
最后網絡安全相關能力的顯著提升,從另一方面而言,也說明模型對漏洞類型、安全機制以及可利用性的理解更深入。也就是說,模型也更擅長發現漏洞然后“鉆空子”。
這有點像一個人對法律理解越深入,就越清楚規則的邊界在哪里:既知道什么是違規,也知道在什么條件下可能繞過。
消息一出,Anthropic 也是緊急關閉了相關信息的公開訪問與檢索功能,并稱這屬于內容管理系統(CMS)配置的“人為錯誤”。不過有更加眼疾手快的網友,趕在官方刪除前保存了一份。
![]()
Anthropic 泄露 3000+
未發布文件
實際上,Anthropic 這次意外泄漏的,一共有 3000 多個未發布內容資源(包括頁面、圖片、PDF 等),且均可被公眾訪問。
起初,這事是被二位網絡安全研究員發現的,其中一位來自一家網絡安全公司,另一位來自劍橋大學。
據安全研究人員透漏,這些材料(包括疑似用于發布新模型的博客草稿),被存放在了一個未加保護的公共數據湖中。
也就是說,它們本來應該被存放在 Anthropic 的內容管理系統(CMS)中。但由于配置失誤,相關內容在上傳后被默認生成了可公開訪問的 URL,且未設置訪問權限,結果被搜索引擎抓取,形成了一個可被外界檢索的數據緩存。
Anthropic 在文檔中指出,他們已經完成了Claude Mythos的訓練,并稱其為:“迄今為止我們開發過的最強 AI 模型。”
但他們也在文中表示:
“在準備發布 Claude Mythos 時,我們希望采取更加謹慎的態度,全面理解其帶來的風險——不僅限于我們內部測試中已經發現的部分。尤其是,我們希望重點評估該模型在網絡安全領域的短期潛在風險,并將相關結果分享出來,幫助網絡防御方提前做好準備。 Mythos 同時也是一個規模龐大、計算密集型的模型。無論是對我們來說,還是對客戶而言,其部署和使用成本都將非常高。因此,在全面發布之前,我們正在努力提升模型的效率。 基于這些原因,我們在發布 Mythos 時將采取比以往更慢、更漸進的策略。我們會先從一小部分早期訪問客戶開始,讓他們探索該模型在網絡安全方面的應用,并反饋實際發現。”
![]()
除了意外曝光全新頂級模型 Mythos,這些文件還透露出,Anthropic 將在英國舉辦一個閉門活動,面向歐洲最具影響力的 CEO,而且 CEO Dario Amodei 將出席。
該活動為期兩天,定位為“小規模深度交流” ,內容包括: 政策制定者分享 AI 應用趨勢,以及體驗尚未發布的 Claude 功能。
這次泄露之所以格外敏感,或者也和整個 AI 行業正在跨過一個臨界點有關。
過去一年,頭部模型的能力已經不只是“更會寫代碼”,而是開始具備直接作用于真實系統的能力。
比如今年 2 月,OpenAI 發布的 GPT-5.3 Codex,已被認定為“高網絡安全能力模型”,可以直接用于發現軟件漏洞;同期,Anthropic 的 Opus 4.6 也已經能夠在生產環境中識別未知漏洞。
而這類能力,本質上就是的“雙刃劍”。Anthropic 曾披露,已有具備國家背景的黑客組織,曾嘗試利用 Claude 發起攻擊。在一次事故中,對方借助 Claude Code 滲透了約 30 家機構(包括科技公司、金融機構和政府部門),Anthropic 不得不在 10 天內完成排查、封禁賬號,并通知相關組織。
放在這樣的背景下,再看 Mythos,就不只是一個更強的模型,而是一個已經逼近現實攻防邊界的能力形態。
One More Thing
微妙的是,在這起泄露被曝光的同時,據 Information 消息,Anthropic 正在推進 IPO 計劃,預計最快在今年第四季度上市。
如果說 Mythos 體現了目前模型能力上限,那么這次泄露事件也同時暴露了另一件事:當模型能力逼近現實系統邊界時,AI 公司需要面對的,已經不只是“能不能做出來”,而是“能不能安全地發布”。
https://fortune.com/2026/03/26/anthropic-says-testing-mythos-powerful-new-ai-model-after-data-leak-reveals-its-existence-step-change-in-capabilities/
https://x.com/M1Astra/status/2037377109472018444
https://www.theinformation.com/articles/anthropic-discusses-going-public-soon-fourth-quarter
聲明:本文為 AI 前線整理,不代表平臺觀點,未經許可禁止轉載。
會議推薦
OpenClaw 出圈,“養蝦”潮狂熱,開年 Agentic AI 這把火燒得不可謂不旺。在這一熱潮下,自托管 Agent 形態迅速普及:多入口對話、持久記憶、Skills 工具鏈帶來強大生產力。但這背后也暴露了工程化落地的真實難題——權限邊界與隔離運行、Skills 供應鏈安全、可觀測與可追溯、記憶分層與跨場景污染、以及如何把 Agent 納入團隊研發 / 運維流程并形成穩定收益。
針對這一系列挑戰,在 4 月 16-18 日即將舉辦的 QCon 北京站上,我們特別策劃了「OpenClaw 生態實踐」專題,將聚焦一線實踐與踩坑復盤,分享企業如何構建私有 Skills、制定安全護欄、搭建審計與回放機制、建立質量 / 效率指標體系,最終把自托管 Agent 從可用的 Demo 升級為可靠的生產系統。
今日薦文
你也「在看」嗎?
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.