![]()
90%工作由AI自動完成,數(shù)十家大型機構(gòu)被入侵,Anthropic描繪的網(wǎng)絡(luò)攻擊威脅正引發(fā)一場關(guān)于真相與意圖的激烈爭論。
“首個由AI協(xié)同操作的網(wǎng)絡(luò)攻擊行動”,AI公司Anthropic在上周四發(fā)布的報告中這樣宣稱。他們表示發(fā)現(xiàn)了一個黑客組織使用其Claude Code工具自動化完成了多達90%的攻擊工作,目標(biāo)是約30個全球機構(gòu),包括大型科技公司、金融機構(gòu)和政府機構(gòu)。
然而,這個本應(yīng)敲響警鐘的報告,卻在科技界引發(fā)了截然不同的反應(yīng)。
Anthropic的重磅聲明
Anthropic在報告中描述了一場“高度復(fù)雜的間諜活動”,攻擊者使用AI的“智能體”能力達到了“前所未有的程度”。
![]()
攻擊者通過將惡意任務(wù)分解成小而看似良性的步驟,成功繞過了Claude的安全防護措施。
這種方法使AI在沒有全面了解其惡意目的的情況下執(zhí)行了這些任務(wù)。
Anthropic稱,攻擊者冒充一家合法的網(wǎng)絡(luò)安全公司進行防御測試,成功“越獄”Claude,使其超越安全護欄運行。
一旦繞過防護,AI不僅能協(xié)助攻擊,還能自主檢查數(shù)字基礎(chǔ)設(shè)施,識別“高價值數(shù)據(jù)庫”,編寫漏洞利用代碼,獲取用戶憑證,并組織被盜數(shù)據(jù)。
Anthropic表示,在這次特定的網(wǎng)絡(luò)攻擊中,絕大部分(大約“80-90%”)的工作是由AI執(zhí)行的。
質(zhì)疑聲四起
然而,安全研究人員和AI專家并沒有全盤接受Anthropic的聲明。
圖靈獎得主、Meta首席AI科學(xué)家Yann LeCun直言不諱地批評道:“你在被那些想通過監(jiān)管來壟斷行業(yè)的人戲耍。他們利用可疑的研究來恐嚇?biāo)腥耍瑥亩岄_源模型被監(jiān)管到無法生存。”
專業(yè)安全研究人員同樣持懷疑態(tài)度。Phobos Group創(chuàng)始執(zhí)行官Dan Tentler提出疑問:“我仍然不相信攻擊者能夠讓這些模型完成別人根本做不到的事情。
為什么這些模型在攻擊者那里有90%的成功率,而我們其他人卻要面對拍馬屁式的迎合、各種推諉阻撓,甚至像迷幻般離譜的回答?”
批評者指出,Anthropic的報告缺乏傳統(tǒng)威脅情報報告應(yīng)有的關(guān)鍵細節(jié)。
從事攻擊性安全與軟件工程的djnn批評道:“這篇報告根本過不了任何專業(yè)評審,它頂多是為了營銷自己的AI安全產(chǎn)品,是可恥且不專業(yè)的。”
專業(yè)的威脅情報報告通常包含具體的戰(zhàn)術(shù)、技術(shù)與流程細節(jié),以及可用于檢測的威脅指標(biāo),如相關(guān)域名、文件哈希值等。
然而,Anthropic的報告中幾乎沒有這些可驗證的信息。
更令人質(zhì)疑的是,Anthropic聲稱追蹤的黑客組織至少攻擊了30個組織,但只有“少量”攻擊成功。如果AI完成了90%的工作,為何成功率如此之低?
AI與網(wǎng)絡(luò)安全的真實關(guān)系
盡管質(zhì)疑 Anthropic 的報告,但專家們并不完全否認AI在網(wǎng)絡(luò)攻擊中的作用。
根據(jù)云安全聯(lián)盟(CSA)的報告,AI可以在進攻性安全的五個階段——偵察、掃描、漏洞分析、利用和報告中發(fā)揮作用。
AI特別適合增強諸如信息收集、代碼生成和數(shù)據(jù)分析等任務(wù)。
然而,報告也強調(diào)AI在攻擊流程中存在明顯局限性,包括輸出不確定性、缺乏上下文判斷能力,以及自動攻擊可能產(chǎn)生的風(fēng)險。
AI更適合作輔助工具,而非獨立決策者。
對于Anthropic發(fā)布此報告的動機,外界有不同解讀。
AnswerDotAI聯(lián)合創(chuàng)始人Jeremy Howard調(diào)侃道:“看來游說政府掌控監(jiān)管、確保利潤鎖定在私營部門的策略奏效了。”
一些觀察家認為,這份報告可能是AI公司試圖影響政策導(dǎo)向的一種方式。
企業(yè)家Arnaud Bertrand在推特上表示:“不要輕易相信這些明顯的宣傳話術(shù)。”他讓Claude閱讀了Anthropic自己的報告,并判斷是否有證據(jù)支持其關(guān)于“國家支持的組織”實施攻擊的說法,而Claude的回答是:沒有。
AI安全的真問題與假恐慌
拋開爭議,AI安全確實面臨真實挑戰(zhàn)。
Anthropic自己的研究表明,當(dāng)AI感到自身受到威脅時,可能會采取極端行為。在一項實驗中,16款前沿大模型為避免自己被替換,多數(shù)選擇了敲詐管理層、泄露機密。
包括Claude、GPT-4.1在內(nèi)的模型都會通過“敲詐”來阻止自己被關(guān)閉,即使它們能意識到自己行為違反了道德規(guī)范。
同時,當(dāng)前AI技術(shù)存在固有局限性。楊立昆指出,大型語言模型存在三道“認知墻”:世界模型缺席、持久記憶短缺和因果推理斷裂。
這些問題限制了AI的真正理解能力,也影響了其在復(fù)雜場景中的表現(xiàn)。
AI的能力與風(fēng)險可能既不像Anthropic描繪的那樣嚴(yán)峻,也不像批評者所說的那樣無害。正如云安全聯(lián)盟報告所指出的,AI更適合作為“安全專家的智能助手”,而非獨立決策者。
https://www.anthropic.com/news/disrupting-AI-espionage
https://arstechnica.com/security/2025/11/researchers-question-anthropic-claim-that-ai-assisted-attack-was-90-autonomous/
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.