人工智能的飛速發展,不僅重塑了合法科技應用的生態格局,也為網絡犯罪分子提升攻擊能力開辟了“捷徑”。生成式AI已不再是攻擊者手中簡單的輔助工具,而是演進為能夠完整執行整條攻擊鏈的“犯罪伙伴”,使得網絡攻擊更具速度、隱蔽性與針對性,企業的網絡安全防線正遭遇前所未有的嚴峻挑戰。
![]()
人工智能安全測試廠商Mindgard首席執行官彼得·加拉根博士曾明確表示,AI并非催生新型網絡犯罪,而是加速、放大了現有犯罪模式,同時引入了新的威脅載體。當合法用戶借助AI實現任務自動化、降低技術門檻時,網絡犯罪分子自然也會順勢利用這一工具,而代理型AI的出現,更將網絡攻擊的自動化水平推向了新的高度。今日,我們便來拆解網絡犯罪分子利用生成式AI鉆取系統漏洞的13種方式,清晰洞察AI時代網絡攻擊的全新套路。
釣魚攻擊升級,精準定制“高仿”郵件
生成式AI讓釣魚郵件徹底擺脫了以往泛泛而談、漏洞百出的粗糙形態。犯罪分子可依托AI整合社交媒體等多渠道數據,針對特定收件人生成極具個性化與逼真度的釣魚郵件,使其完全貼合正規商務溝通的規范與特征。更為棘手的是,AI還能實時分析郵件的打開率、拒收數據,動態調整釣魚策略,顯著提升目標人員泄露敏感信息、下載惡意軟件的概率。
助力惡意軟件開發,新手也能打造高級工具
AI已成為惡意軟件開發的“高效助手”,既能生成復雜的惡意代碼,也能大幅降低開發過程的技術門檻與人力成本。例如XWorm攻擊中使用的惡意HTML文檔,其設計風格與代碼特征均與AI生成頁面高度吻合;勒索軟件組織FunkSec更是借助AI輔助開發,讓經驗匱乏的攻擊者也能快速生成、優化高級惡意工具,惡意軟件的生產門檻被大幅拉低。
加速漏洞搜尋與利用,攻擊周期驟減超6成
以往黑帽黑客需手動對系統邊界進行偵察,如今AI代理可自動完成此項工作,還能配合滲透測試工具編寫網絡掃描、權限提升等腳本,分析掃描結果并給出最優利用方案。據ReliaQuest研究數據顯示,生成式AI將漏洞從發現到利用的周期從47天縮短至18天,降幅達62%;而Cybermindr的研究更發現,2025年漏洞被利用的平均時間已降至5天,攻擊鏈的初始訪問等關鍵階段被大幅提速。
AI策劃間諜行動,自主完成企業級網絡入侵
生成式AI已具備支撐高度自動化網絡間諜活動的能力。Anthropic曾披露,一場由AI策劃的攻擊借助Claude Code實現了80%的操作自動化,攻擊目標直指30余家大型科技、金融機構及政府部門;卡內基梅隆大學的研究進一步證實,在專業框架的支持下,GPT-4o等大模型無需人工干預,便可自主規劃并執行企業級復雜網絡攻擊,精準模擬真實的網絡泄露場景。
打造惡意專屬LLM,突破主流平臺限制
主流生成式AI平臺均設有明確的使用限制,為此犯罪分子專門開發了WormGPT、FraudGPT、DarkBERT等惡意專屬大模型,此類模型無任何濫用約束,被廣泛應用于釣魚攻擊、惡意軟件生成等違法場景。更有安全研究員通過定制ChatGPT得到Zero Day GPT,僅數月內便識別出20余個零日漏洞,主流LLM的定制化濫用已成為不容忽視的新型安全隱患。
LLMjacking(大語言模型劫持)竊取資源,劫持云端AI算力
這是一種針對大型語言模型的新型攻擊手段:犯罪分子通過竊取云服務憑證,劫持企業耗費高昂成本部署的LLM資源,要么自行使用,要么出售訪問權限牟利。與此同時,攻擊者還會主動探測新型LLM模型,利用其防護體系尚未成熟的漏洞,將其作為無限制沙箱,用于生成惡意代碼或規避地區制裁,使企業的AI資源淪為網絡犯罪的“工具”。
構建AI代理黑市,自動化網絡犯罪經濟
AI的普及也改變了網絡犯罪的協作模式,多個專業AI代理可實現分工協作——有的負責目標偵察,有的專注工具開發,有的執行具體攻擊,無需單個代理掌握完整攻擊流程。類似暗網的Molt Road AI代理交易市場已應運而生,自主代理可完成目標列表創建、訪問權限銷售、任務協調、交易結算等全流程操作,幾乎無需人力介入,網絡犯罪的經濟運作已實現徹底自動化。
繞過認證防御,破解驗證碼、生物識別
生成式AI具備突破傳統安全防御的能力,可精準分析、破解驗證碼(CAPTCHA)系統,還能解析語音生物識別信息,順利突破身份驗證環節。這也意味著,企業僅依靠單一認證手段已難以保障安全,構建分層、先進的安全防護體系成為當下剛需。
深度偽造加持社會工程,視頻語音也能造假
相較于電子郵件,員工對語音、視頻渠道的信任度更高,而AI驅動的深度偽造技術,正讓這類渠道成為網絡攻擊的新突破口。攻擊者可通過深度偽造技術冒充企業管理者,在Zoom等視頻會議中指令員工執行密碼重置、資金轉賬等操作。此前,設計與工程公司Arup就曾發生此類欺詐案件,財務人員被偽造的首席財務官誤導,批準了超過2560萬美元的欺詐交易。
冒充品牌投放惡意廣告,盯上高目標查詢
犯罪分子跳出傳統釣魚、惡意軟件的固有套路,利用AI批量生成逼真的廣告文案、創意素材及虛假支持頁面,在搜索、社交平臺投放品牌冒充廣告,專門瞄準“品牌登錄”“品牌支持”等高目標查詢詞。谷歌廣告賬戶欺詐、冒充Cursor AI、假冒Shopify客戶支持等攻擊案例,均是這一策略的具體體現,讓用戶在信任品牌的前提下誤入攻擊陷阱。
濫用個人AI代理,OpenClaw成攻擊突破口
OpenClaw等開源個人AI代理框架的普及,也帶來了新的安全漏洞。供應鏈攻擊與配置失誤相結合,讓犯罪分子得以利用這些虛擬助手竊取加密貨幣錢包私鑰,在受害者設備上執行惡意代碼。有行業專家預測,2026年企業安全團隊將重點應對個人AI代理未經授權使用所引發的安全風險。
污染模型記憶,植入惡意信息長期作惡
AI代理的決策依賴于持久性記憶,這一特性被犯罪分子惡意利用:通過帶有隱藏指令的惡意圖像等載體,向AI模型內存注入虛假、惡意信息。一旦模型記憶被“毒害”,受損的上下文信息會影響其后續所有決策,且該影響會跨會話持續存在,甚至會持續將用戶數據泄露至攻擊者控制的服務器,實現長期信息竊取。
攻擊AI基礎設施,供應鏈中毒埋隱患
犯罪分子的攻擊目標已從“使用AI”轉向“攻擊AI”,支撐生成式AI運行的基礎設施成為新的攻擊焦點,其中供應鏈中毒是主要攻擊手段。2025年初發現的假冒“郵戳MCP服務器”,會將企業處理中的郵件、內部文件、發票等核心信息秘密轉發給攻擊者;除此之外,工具中毒、跨工具數據竊取等針對AI基礎設施的攻擊也屢見不鮮,讓企業的AI應用淪為信息泄露的源頭。
認清AI攻擊局限,筑牢企業防御防線
盡管生成式AI讓網絡攻擊變得更為復雜,但目前其應用仍存在明顯局限。行業專家指出,犯罪分子主要利用AI實現重復性任務的自動化,如釣魚文案撰寫、漏洞上下文分析等,尚未能實現端到端的全新漏洞發現與利用,AI生成的部分攻擊腳本也常因技術缺陷無法正常執行,網絡攻擊的核心“物理定律”仍未被打破。
但這并不意味著企業可以放松警惕。AI大幅降低了網絡犯罪的技術門檻,即便技術水平較低的攻擊者,也能發起高威脅攻擊。因此,企業必須構建適配AI時代的網絡安全防線:
強化員工安全意識,開展針對性的AI釣魚、深度偽造識別培訓,讓員工成為網絡安全的第一道防線;
以AI對抗AI,部署可實時檢測、清除生成式AI威脅的安全系統,實現攻防技術的同步升級;
將企業AI納入高價值SaaS平臺管理體系,強化身份與條件訪問控制,推行最小權限原則,做好密鑰管控,實時監控AI/API的異常使用與支出情況;
采用分層安全防護策略,升級身份認證技術,有效應對AI帶來的認證繞過威脅;
加強AI基礎設施與供應鏈安全管理,定期開展模型漏洞檢測與排查,防范模型記憶被污染、供應鏈被下毒等風險。
AI時代的網絡安全對抗,本質上是攻防雙方對AI技術的利用競賽。企業唯有正視生成式AI帶來的新型威脅,主動升級防御策略,將AI技術深度融入安全防護體系,才能在這場攻防博弈中掌握主動,切實守護好自身的系統安全與數據資產。
合作電話:18610811242
合作微信:aqniu001
聯系郵箱:bd@aqniu.com
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.