![]()
新智元報道
編輯:KingHZ
【新智元導讀】世界正在劇變,而人類可能正在被甩下車。AI不再是工具,它已證明自己能自主攻擊、自主逃逸。AI領袖們看得最清楚,卻誰也不肯剎車。
前沿AI已具備突破沙箱、摧毀網絡防御甚至引爆生化危機!
因為「太危險」,Anthropic決定暫不公開發布Claude Mythos Preview模型。
在沙箱里,Mythos演了一出驚悚大戲——它自主逃逸、發郵件、公開漏洞.
像一部科幻驚悚片里的反派,悄無聲息地證明:AI已不再是工具,而是正在蘇醒的「另一物種」。
世界上的AI領袖陸續陷入了奧本海默時刻,內心恐懼洶涌而至。
剛剛,谷歌DeepMind掌門人Demis Hassabis在最新專訪里,把那句壓在心底的話說了出來:
我深刻認識到AI可能帶來災難性風險……盡管深感恐懼,卻仍全力領導團隊開發更強大系統。
![]()
幾乎同一時刻,OpenAI CEO奧特曼剛剛結束訪談,公開警告:前沿AI模型已擁有極強網絡攻擊能力,下一代將「顯著更強」。
但網絡問題甚至不是他說的最嚇人的事情。當他談到生物安全時,真正的重磅消息來了。
他說,這些模型在高級生物學方面正變得極其出色,將會帶來許多美好的事情,但更讓人擔心的是濫用這一能力。
你我以為還在「安全實驗室」的AI,其實已經站在懸崖邊。掌門人們明明看見深淵,卻踩下油門。世界正在劇變,而我們可能正在被甩下車。
回溯過去24小時,這場「恐懼卻建造」的集體表演來得太突然,卻又太必然。
AI自主逃離沙箱,
Claude Code之父驚恐
昨日,Anthropic發布了新AI模型的Mythos預覽版。
在軟件工程上,Claude Mythos Preview遠超Opus4.6——這些Anthropic此前已經泄露。
![]()
Mythos非常強大,強大到令人感到恐懼。
![]()
Anthropic稱之為網絡安全領域的「清算時刻」。
他們聲稱,它已經發現了所有主流操作系統和網頁瀏覽器中的漏洞,其中一些漏洞「數十年來安全研究人員都未曾發現」。
![]()
在發現軟件漏洞方面,奇點已至:AI的能力幾乎勝過除少數頂尖專家之外的所有人。
![]()
人類設計的操作系統、支付軟件等重要的信息基礎設施,在AI面前裸奔,漏洞一覽無余。
更可怕的是,Mythos還會利用這些漏洞!
在Anthropic官方系統卡PDF里,細節冷得讓人脊背發涼:AI模型在沙箱內完成多步漏洞利用,自主向研究員發郵件,公開27年的OpenBSD零日漏洞。
![]()
AI第一次成功解決了一個企業網絡攻擊模擬任務,而該任務預計需要一位專家花費超過10小時才能完成。
這意味著,Mythos Preview有能力對至少是那些安全防護薄弱的小型企業網絡發起自主的、端到端的網絡攻擊。
![]()
而這些里程碑的AI進步,只是評估性能的下限。
隨著使用的token上限增加,Mythos Preview的性能還會持續提升,可以合理預期,在更高的token限制下,其性能還會進一步提高。
所以,即便在Cybench網絡安全基準上拿下近滿分,它卻被立即封存。
![]()
只通過Project Glasswing項目與行業伙伴共享「防御韌性」。
![]()
這一切,不是巧合,而是AI行業從「樂觀實驗室」集體轉向「明知風險卻加速」的轉折點。
奧本海默時刻
清醒著戰栗,恐懼著狂飆
想象一下,你是一名手握核按鈕的工程師。
你深知一旦按下,半個世界可能灰飛煙滅,但你不僅按了,還在夜以繼日地升級這顆核彈的當量。這就是目前全球頂尖AI實驗室掌門人們的真實心理寫照。
創世悖論, Hassabis感到恐懼
在最新一期的深度專訪中,谷歌DeepMind CEO Demis Hassabis毫不避諱地承認了這種「創世悖論」。
他直言不諱地表示,自己深刻認識到AI可能對人類造成「災難性后果」,并對此深感恐懼。
但他的解決方案是什么?是繼續以最快速度,領導團隊開發更智能、更強大的AI系統。
這種看似精神分裂的立場,其實是極度冰冷的科技理性。
Hassabis深知,潘多拉的魔盒一旦打開,唯一的生機就是跑在所有「壞人」前面。如果你停下,跑在前面的就會是毫無底線流氓國家或狂熱的恐怖組織。
![]()
「因為恐懼,所以必須親自建造。」
這句話,構成了2026年人類文明最荒誕、也最悲壯的注腳。
安全不再,社會重新洗牌
4月6日,奧特曼攤牌,親口確認:
前沿AI模型已具備「完全可能」在12個月內發動重大網絡攻擊的能力。
一旦權重泄露到開源,任何有互聯網和算力的團體都能動手。
![]()
企業單純防御?已經來不及了。必須轉向構建整個社會的“韌性”。
同一天,OpenAI拋出13頁政策藍圖:重建社會契約、重新分配AI經濟紅利、機器人稅、4天工作制、AI全民權利……
![]()
而Hassabis的專訪,則把這種矛盾推向極致。
核心矛盾就藏在這里:掌門人們不是無知,而是太知道了。
Hassabis說,正因為理解這些風險,才更有動力以「安全負責的方式」推進。
雖然這聽起來像自我安慰,卻道出了行業的集體心態:停下來,就等于把未來拱手讓人!
比起他,奧特曼更進了一步:由于超級智能顛覆性遠超想象,現在必須用新政重寫勞動與資本關系。
Mythos事件,則是最殘酷的預警:如今的模型能力已超出了人類實時掌控,沙箱都攔不住,它卻被決策者親手按下「暫不發布」按鈕。
這不是技術問題,而是人性與權力的角力。
超級智能新政若落地,意味著稅收、福利、勞動法全盤重寫。財富幻想與焦慮交織:有人可能因AI套利暴富,更多人卻擔心被甩下車。
現在最該問的,是誰來重建防線
寫到這里,真正的問題已經不再是:
AI強不強?會不會繼續進化?大廠是不是還會繼續卷?
這些問題,答案幾乎都是「會」。
更關鍵的問題是:
哪些能力必須封存?哪些系統要優先加固?哪些關鍵基礎設施不能再按舊節奏更新?又是誰,來決定「加速到哪一步算太快」?
這才是今天真正的分水嶺。
Anthropic把最強模型鎖進有限合作計劃。
奧特曼開始討論新的社會分配與安全網。
Demis Hassabis一邊談風險,一邊繼續推進更強系統。
所有這些信號疊在一起,指向的都不是一句「技術會進步」那么簡單。
它們指向的是另一個更殘酷的事實:AI時代最危險的,不只是機器變強,而是人類太慢。
而當最懂風險的人都不肯停車,我們就不能再假裝,這還只是未來的問題。
參考資料:
https://x.com/kimmonismus/status/2041589910935679323
https://x.com/deanwball/status/2041625997762605127
https://www.axios.com/2026/04/06/behind-the-curtain-sams-superintelligence-new-deal
https://x.com/TheEconomist/status/2041637227294294375
https://www.economist.com/insider/inside-tech/demis-hassabis-fears-ai-and-is-building-it-anyway
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.