去年9月15日,2025年國家網(wǎng)絡(luò)安全宣傳周主論壇在昆明舉行那天,一份重磅文件正式亮相——《人工智能安全治理框架》2.0版。如果你之前沒太留意,可以簡單理解成:這是我國目前針對AI安全最系統(tǒng)、最權(quán)威的治理藍(lán)圖,從研發(fā)、部署、運行到使用每個環(huán)節(jié)都定出了安全要求,也是所有AI企業(yè)和應(yīng)用場景必須對齊的合規(guī)底線。同一天,國家網(wǎng)信辦還發(fā)布了《國家網(wǎng)絡(luò)安全事件報告管理辦法》,把AI安全事件的上報時限和流程明確下來。再往后一個月,10月28日,新修訂的《網(wǎng)絡(luò)安全法》經(jīng)全國人大常委會表決通過,將于2026年1月1日起施行。這次修訂的最大變化之一,就是把AI安全風(fēng)險正式納入網(wǎng)絡(luò)安全法律體系,違規(guī)罰款上限也大幅提高,最高可達(dá)一千萬元。三件事連在一起看,你就知道:AI投毒已經(jīng)不是安全圈里的學(xué)術(shù)話題,它正式進(jìn)入了立法層面,開始有了真刀真槍的約束。
![]()
這是這個專欄講完八篇攻擊后,第一次給大家一點實打?qū)嵉陌残南ⅲ档谜f透。2.0版比2024年的1.0版有幾處硬核升級,直接對準(zhǔn)前面講的那些AI投毒威脅。第一,首次明確點出“模型開源風(fēng)險”,說基礎(chǔ)模型開源可能被不法分子拿去訓(xùn)練“作惡模型”——這是官方文件第一次正面承認(rèn)開源生態(tài)的兩面性;第二,把供應(yīng)鏈安全和開源生態(tài)治理寫進(jìn)了綜合措施,要求建立跨環(huán)節(jié)協(xié)同機(jī)制,正好回應(yīng)了第七篇“10款主流AI框架無一干凈”的現(xiàn)實;第三,從“原則性建議”變成“全生命周期階段化要求”,把安全責(zé)任拆到算法研發(fā)、建設(shè)部署、運行管理、訪問使用四個階段,每個階段都有具體技術(shù)動作,而不是以前那種大而化之的“要加強(qiáng)管理”;第四,引入風(fēng)險分級機(jī)制,按應(yīng)用場景、智能水平和規(guī)模,把AI風(fēng)險分成低、一般、較大、重大、特別重大五個級別,監(jiān)管從“一刀切”走向“對癥下藥”。這些都不是空話,是對真實威脅的制度回應(yīng)。
但我得把另一面也說清楚,不然就成了單純的政策宣傳。框架再全面,它也只是“框架”——有原則、有方向,落地細(xì)則還需要時間。目前最緊迫的幾類AI投毒威脅,在標(biāo)準(zhǔn)層面確實還有真實盲區(qū)。第三篇講的RAG知識庫偏見注入攻擊,每條注入內(nèi)容都是“真話”,現(xiàn)有內(nèi)容審核機(jī)制沒法從真假維度過濾它,2.0版在這個場景上還沒給出可落地的技術(shù)手段;對抗樣本攻擊在自動駕駛、醫(yī)療影像等場景的安全測試標(biāo)準(zhǔn),目前仍處于起步階段,專項測試方法還沒普遍建立;AI Agent的權(quán)限管控和安全邊界,框架里雖有相關(guān)表述,但具體執(zhí)行標(biāo)準(zhǔn)還是空白。更現(xiàn)實的是:執(zhí)行主體是企業(yè),而中小企業(yè)合規(guī)能力和意愿參差不齊,標(biāo)準(zhǔn)發(fā)布到真正落地,中間總有一道不小的鴻溝。
![]()
有個對比特別說明問題。歐盟《人工智能法案》從2024年起分階段強(qiáng)制生效,高風(fēng)險AI必須上市前完成合規(guī)評估,否則禁售,罰款最高可達(dá)全球年營業(yè)額6%。美國特朗普政府上臺后廢除多項舊AI監(jiān)管,整體轉(zhuǎn)向“放開創(chuàng)新、事后追責(zé)”。中國走的是中間路線:框架標(biāo)準(zhǔn)先行,立法保持彈性——2025年國務(wù)院立法工作計劃里,《人工智能法》從“提請審議草案”調(diào)整為“推進(jìn)健康發(fā)展立法工作”,節(jié)奏主動放緩,給技術(shù)留出空間。這種選擇有它的道理:AI迭代太快,過早剛性立法可能既管不住真威脅,又把正常創(chuàng)新卡死。但代價也擺在那:在《人工智能法》正式落地前,很多攻擊場景缺乏明確的法律責(zé)任主體,AI投毒造成的損失,追責(zé)起來還比較難。
對正在用AI或準(zhǔn)備上AI的企業(yè)來說,現(xiàn)在最該做的,就是把這些框架文件當(dāng)成真行動指南,而不是應(yīng)付檢查的材料。2.0版里有一句說得特別實在:“安全有效釋放重要行業(yè)應(yīng)用需求”——意思是安全不是AI的對立面,把安全做好,才能真正把AI用好、用長久。已經(jīng)上線的企業(yè),不妨對照2.0版的四階段要求做一次自查:訓(xùn)練數(shù)據(jù)有沒有來源記錄?部署前有沒有基準(zhǔn)測試?運行中有沒有輸出偏移監(jiān)測?訪問權(quán)限是不是按最小化原則配的?這四道門關(guān)緊了,不能防住所有威脅,但至少能擋住絕大多數(shù)機(jī)會性攻擊。
![]()
最后,想請你在評論區(qū)聊三個問題:
1. 你所在的公司或機(jī)構(gòu),有沒有專門針對AI系統(tǒng)做過合規(guī)自查,還是基本“先用起來,安全以后再說”?
2. “中國選擇放慢綜合性AI立法節(jié)奏,給技術(shù)發(fā)展留空間”——你覺得這是正確判斷,還是留下了太大監(jiān)管真空?
3. 在RAG偏見注入、對抗樣本、AI Agent劫持這些核心威脅技術(shù)上還沒完美解法的情況下,我們是該等技術(shù)成熟了再大規(guī)模普及AI,還是邊用邊防、在實踐中把標(biāo)準(zhǔn)逼出來?
把你的真實想法和經(jīng)歷寫下來,咱們繼續(xù)把AI安全這件事聊透。#人工智能未來#
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.