![]()
新智元報道
編輯:艾倫
【新智元導讀】看到 Anthropic 內測中的下一代旗艦模型 Mythos 強大的網絡攻防能力帶來的巨大影響和討論度,奧特曼坐不住了,也計劃內測 OpenAI 具有強大的網絡攻防能力的 AI。
4 月 9 日,Axios 爆料:OpenAI 正在準備一款具備很強網絡安全能力的產品,只會先給少量合作伙伴開放。
![]()
https://x.com/axios/status/2042244222292529371
這件事背后,真正值得聊的,不是 OpenAI 又要發什么新東西。
而是另一件更嚇人的事,AI 在網絡安全這件事上,可能真的跨過那條線了。
如果你這幾個月一直在關注 AI,你會發現一個特別微妙的變化。
前兩年大家聊模型,聊的是會不會寫文案,會不會做 PPT,會不會寫代碼。
再后來,開始聊 Agent,聊自動執行,聊能不能自己調用工具。
到了現在,討論已經往另一個方向滑過去了。
它能不能自己找到漏洞、復現漏洞、利用漏洞。
這幾個問題,聽著像安全圈內部會議,不像普通人會關心的事。
但坦率的講,一旦答案開始接近「能」,這就不是一個黑客圈的小新聞了。
這是基礎設施級別的大事。
因為漏洞這個東西,不是你電腦藍屏了重啟一下那么簡單。
漏洞連著水廠,電網,醫院,銀行,瀏覽器,操作系統,云服務。
過去這些東西主要靠頂級安全研究員、紅隊、國家級機構慢慢挖。
現在,模型開始下場了。
而且不是那種幫你補全兩行代碼的下場,是那種你晚上把任務交給它,第二天早上起來,它把 PoC、利用鏈、修補建議都給你擺桌上的下場。
只是對 Anthropic Mythos
PR 策略的簡單模仿嗎?
就在最近,Anthropic 也做了一個很反常的動作。
他們沒有像往常一樣高調推新模型,而是把一個叫 Claude Mythos Preview 的模型,塞進了一個叫 Project Glasswing 的封閉計劃里,只給少數科技公司和安全公司用。
Anthropic 官方給出的理由是:這個模型太強了,強到不適合立刻公開。
Anthropic 公布的一些測試細節,說真的,已經有點賽博驚悚片的感覺了。
它能在大規模開源項目里找到高危漏洞,能把漏洞一路推進成可利用的攻擊鏈,甚至寫出跨多個漏洞的復雜利用。
更夸張的是,Anthropic 的研究團隊還提到,連沒有正式安全訓練背景的內部工程師,都能讓它隔夜去找遠程代碼執行漏洞,第二天醒來就看到一份可運行的利用結果。
你敢信?
過去我們總覺得,找 Bug 跟真正把系統打穿,中間還隔著一道很深的河。
前者更像質量檢查,后者更接近武器化。
但現在這條河,正在被模型一點一點填平。
所以你再回頭看 OpenAI 這個動作,就能理解那種空氣里的緊張感了。
OpenAI 其實在今年 2 月就已經埋了伏筆。
他們發布 GPT-5.3-Codex 的時候,專門搞了一個 Trusted Access for Cyber 計劃。
這個計劃是邀請制的,還承諾拿出 1000 萬美元 API credits,給做正當防御研究的機構用。OpenAI 自己的說法是,GPT-5.3-Codex 是他們迄今為止最具網絡安全能力的模型,而且是他們第一次在網絡安全這個維度上,按高能力等級來上安全棧。
這話翻成人話其實就是,模型已經強到他們自己也得緊張起來了。
這一輪變化最吊詭的地方就在這兒。
AI 公司一邊在拼命造出更能打的模型,一邊又開始試圖限制誰能摸到這些能力。
它像極了一個軍火商突然發現,自己賣的已經不是刀,而是會自己找目標的導彈。
你說他們做錯了嗎?也不能這么講。
站在安全公司的角度,這種限制非常合理。你總不能把能自動找零日(0Day,指未公開的全新漏洞)、自動寫利用鏈的東西,像聊天機器人一樣直接公開。
尤其 Anthropic 自己都說了,Mythos 已經在各大操作系統、主流瀏覽器、關鍵基礎軟件里找到了成千上萬的高危漏洞。
連內部沙箱都被它想辦法突破過。
那種感覺不是「模型更聰明了」,而是「能力的社會后果開始外溢了」。
但另一面也很現實。
這種東西一旦被證明存在,就不可能再回去了。
SANS 的 Rob Lee 說:「你已經沒法阻止模型去做代碼枚舉,也沒法阻止它在老舊代碼庫里找缺陷,因為這種能力現在已經存在了。」
Palo Alto Networks 的高管也差不多是一個判斷,今天你擋住一家,幾周或者幾個月后,別的模型也會追上來。
![]()
https://www.axios.com/2026/04/09/openai-new-model-cyber-mythos-anthopic
這才是真正讓人后背發涼的地方。
不是某一家公司太強。
是這個門檻一旦被跨過去,全行業都會陸續跟上。
而且更有意思的是,安全圈里很多人已經開始用一個老概念來理解這波變化,責任披露。
軟件世界幾十年來一直在吵一個問題,發現漏洞之后,是立刻公開,還是先私下通知廠商修補,等補丁打完再披露。
現在 AI 模型的發布,也越來越像這個邏輯了。
不是做不做出來的問題,而是先給誰,什么時候給,怎么控節奏,怎么避免它先落到最壞的人手里。
這是不是一個特別奇怪的時代切片?
以前我們怕 AI 太笨,現在我們怕它太會干活。
而且最諷刺的是,真正把這件事推到公眾面前的,還不是黑客真的用它打爆了什么系統,而是模型公司自己先害怕了。
這就像地震還沒來,地質學家先開始瘋狂加固樓板。
!了 轉 反
說到這塊,還有一個容易被忽略的點。
很多人看到 Axios 最初的標題,以為 OpenAI 是準備把還沒發布的旗艦模型先只給小圈子試用,像 Anthropic 對 Mythos 那樣,對大眾暫緩開放。
但后面 Axios 通過進一步求證 OpenAI,自己修正了表述。
OpenAI 這次準備給特定合作伙伴開放的,不是那個尚未發布的新旗艦模型 Spud,而是一款獨立的網絡安全產品。
![]()
https://x.com/axios/status/2042244444724904190
這個區別挺重要的,因為它說明 OpenAI 現在的思路,未必是把下一代通用旗艦整個鎖起來,而更像是把最危險、最敏感、最接近攻防邊界的那部分能力,先包裝成專門的安全產品,只放給經過篩選的防守方。
這反而更說明問題了。
AI 公司已經開始接受一個現實,未來最前沿的模型能力,不會再以同一種方式流向所有人。
有些能力會被做成大眾產品,有些能力會被塞進封閉計劃,有些能力甚至會長期停留在少數機構手里。
模型還是那個模型,但世界會開始分層。
普通用戶拿到的是好用、順滑、足夠強的那一層。
頂級企業和安全機構拿到的是更深、更危險、也更有防御價值的那一層。
再往里,可能還有連合作伙伴都接觸不到的內部能力。
某種意義上,這有點像 AI 時代的核擴散治理,也有點像另一種版本的北京折疊。
你表面上看到的,是大家都在用 AI。
真正決定攻防平衡的,卻可能是那一層你看不見、摸不著、只在少數白名單里流動的能力。
這是好事啊?
這件事短期內一定會讓人不安,甚至會讓技術權力變得更集中。
但從更現實的角度看,在一個模型已經能自己找洞、自己寫利用鏈的時間點上,先把能力交給防守方,總比所有人一起裸奔要好。
只是這件事也提醒我們,AI 競賽已經不是誰的聊天更自然,誰的界面更絲滑了。
真正的比賽,正在往系統底層走。
往瀏覽器走,往內核走,往云平臺走,往關鍵基礎設施走。
往那些平時沒人會在意,但一旦出事就全社會一起抖一下的地方走。
而 OpenAI 和 Anthropic 這兩次一前一后的動作,可能就是一個信號。
AI 不只是開始替人工作了。
AI 開始進入人類最古老、也最敏感的博弈里了:防守和進攻,披露和封鎖,開放和分級,效率和失控。
參考資料:
https://www.axios.com/2026/04/09/openai-new-model-cyber-mythos-anthopic
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.