“AI治理”系列評論①
人民銳評:技術快跑,也要系上“安全帶”
“建議禁止AI無差別讀取手機電腦屏幕”
“要把安全能力嵌入AI應用的全生命周期”
“嚴格貫徹AI手機‘非授權不訪問’的雙重授權原則”
![]()
全國兩會期間,“AI”再次成為熱點。從優(yōu)化應用發(fā)展環(huán)境到加強人才隊伍建設,從加強數(shù)據(jù)供給創(chuàng)新到促進開源生態(tài)繁榮,代表委員們圍繞進一步深化拓展“人工智能+”行動踴躍建言。值得關注的是,不少與會代表委員在鼓勵加快人工智能技術產(chǎn)業(yè)發(fā)展的同時,也呼吁加強對隱私安全等AI治理的重視,更好統(tǒng)籌發(fā)展與安全。
截至2025年12月,我國生成式人工智能用戶規(guī)模達6.02億,普及率達42.8%。這意味著近半數(shù)國人已置身于AI構建的生活場景中;2025年,我國人工智能核心產(chǎn)業(yè)規(guī)模預計突破1.2萬億元。
在產(chǎn)業(yè)高歌猛進、技術加速迭代的“高速路”上,須警惕只要速度規(guī)模、不顧安全風險的行動偏差,牢記安全是發(fā)展的前提,系好“安全帶”、握好“方向盤”。
2026年初,AI智能體Clawdbot(現(xiàn)更名OpenClaw)甫一問世,就爆發(fā)了“被黑客組織用于竊取API密鑰”的重大風險事件;2025年底,一款尚處內測階段的“AI手機”,為用戶提供跨應用的搜索、比價、下單等服務,引發(fā)了對隱私與財產(chǎn)安全風險的擔憂;近日,一車主因AI語音操作失靈,導致車輛在高速路上夜間行駛時撞上護欄……
當人工智能技術以“日”為單位狂飆突進,以隱私安全為代表的AI倫理問題,也逐步顯現(xiàn)。需要注意的是,企業(yè)不能將“用戶同意”作為免責擋箭牌,通過復雜授權協(xié)議或默認勾選機制獲取過度權限。隱私安全不是附加選項,而是產(chǎn)業(yè)生存的前提條件。人工智能發(fā)展絕不能以透支公眾信任為代價。
重視隱私安全,需要將用戶授權建立于充分的信息對稱基礎之上。形式上的同意,并不等于真實的知情與自愿。當AI系統(tǒng)通過無障礙權限、進程注入等技術手段跨應用操作時,本質上已觸及操作系統(tǒng)底層控制權。這意味著,聊天記錄、支付信息、賬號密碼乃至行為軌跡,都可能在用戶不完全知情的情況下被讀取與處理。一旦被濫用或遭黑客利用,后果不僅是隱私泄露,還可能演變?yōu)樨敭a(chǎn)損失甚至社會安全問題。
重視隱私安全,需要將技術應用建立在以人為本的原則之上。技術應當服務于人,而不是越俎代庖。用戶使用AI是為了提升工作效率、改善生活品質,需要的是“參謀”,而不是“判官”。技術越深入生活,越需要清晰的邊界與可被信任的權限機制,不能為了“效率優(yōu)先”將用戶置于信息失控的風險之中。
重視隱私安全,需要技術突破與制度約束、價值引導同步推進。人工智能的發(fā)展,從來不只是算力和算法競爭,更是價值競爭。技術可以突破邊界,但商業(yè)行為不能突破法律與倫理底線。只有在發(fā)展中守住安全底線,在創(chuàng)新中建立規(guī)則意識,才能真正實現(xiàn)技術普惠和成果共享。
當前,人工智能產(chǎn)業(yè)方興未艾。唯有堅守“創(chuàng)新不越界、便利不破安全”的原則,在創(chuàng)新與安全之間找到平衡,人工智能技術才能在快速發(fā)展中不斷實現(xiàn)其潛力,更好造福我們每一個人。
“AI治理”系列評論②
人民銳評: 智能普及,須守住“以人為本”
“讓通用人工智能安全發(fā)展、造福人類”“給人工智能發(fā)展系上‘安全帶’”“智能體完全取代人力并不現(xiàn)實,人機協(xié)作才是常態(tài)。”……2026年全國兩會期間,朱松純、周云杰、周鴻祎等代表委員聚焦人工智能發(fā)展與安全等議題積極建言獻策。
當前,AI正從幕后走向經(jīng)濟社會與日常生活前臺,將深度參與并影響我們的各項決策。AI不再只是被動響應的工具,而是升級為參與決策、影響行為的協(xié)作者,人機關系正迎來深刻重塑。
正如歷次技術變革引發(fā)社會思潮對人的地位的探討,在這場技術引領的協(xié)同進化中,一個根本性問題再次浮現(xiàn):如何在智能浪潮中牢牢守住人的主體性?
當AI的普及,隨之產(chǎn)生的過度索權、越權收集、擅采信息等亂象,正在引發(fā)廣泛擔憂。當用戶無法對AI操作全程知情、質疑、中止,數(shù)據(jù)被用于超出合理預期的商業(yè)目的,所謂“智能”便走向了人的對立面,成為對主體性的隱蔽侵蝕。一些業(yè)內人士指出,以“算法沒有價值觀”為借口的行為,實則是責任感缺位;“讓工具凌駕于人之上”,實則是本末倒置。
堅持以人為本,不僅是技術層面的挑戰(zhàn),更是文明層面的命題。縱觀人類歷史上的每一次技術革命,都伴隨著主體性重構。從蒸汽機、汽車的出現(xiàn)大幅提高了生產(chǎn)和出行的效率,到互聯(lián)網(wǎng)技術讓信息傳播無遠弗屆,技術也一度走過將人異化為流水線上的廉價勞力、扭曲為招攬生意的流量,但最終還是要回歸“服務于人”的基本原則。在文明的視角,我們不難發(fā)現(xiàn):任何忽視人的主體性的技術應用,都是對創(chuàng)新初心的背離,也是對人機協(xié)作的文明的破壞。技術越強大,越需要強化人的主體地位,而不是削弱。
堅持以人為本,要把保障人的安全與權利,放在更優(yōu)先位置。健康的人機共生生態(tài),應當遵循分工清晰、協(xié)同高效、權責明晰、以人為本的基本原則。人工智能研發(fā)可以探索 “無界”,但其應用必須 “有界”。這一邊界,是以人為中心的價值導向、數(shù)據(jù)安全的堅實防線,更是不可逾越的法律倫理底線。我們要通過制度設計與倫理約束,在技術研發(fā)與應用推廣的全過程明確劃定:哪些場景必須人工在場,哪些領域必須人類終審,哪些決策必須責任到人。
堅持以人為本,不是為了替代人,而是為了增強人、成就人、解放人。因此,我們所奔赴的未來,應當是“人將更具人性”的未來——在技術賦能之下,人會更清醒地錨定方向,更自覺地承擔責任,更主動地作出價值抉擇。企業(yè)尤須摒棄將用戶數(shù)據(jù)視為私產(chǎn)、將技術便利置于用戶權益之上的短視思維,牢固樹立“數(shù)據(jù)頭上有刃”的敬畏之心,扎緊安全籬笆。
正如列車與軌道,技術能夠抵達多遠,取決于倫理的路基有多堅實。人機共生的未來,不取決于機器多么極致,而取決于人類多么克制;不取決于算力多么強大,而取決于我們在制度設計與文化培育中對人的主體位置多么堅定。守住這個根本,人工智能才能真正賦能社會,造福于人。
“AI治理”系列評論③
人民銳評:協(xié)同治理,讓AI走得更穩(wěn)
“建立AI生成內容侵權快速處置綠色通道”“加快構建AI治理體系,啟動專項立法研究”“強化技術向善與安全可控,健全倫理審查體系”……在2026年全國兩會上,多位代表委員聚焦人工智能產(chǎn)業(yè)治理建言獻策。
當前,人工智能正以前所未有的速度迭代演進,“人工智能+”與各行業(yè)各領域融合不斷加深,深刻重塑生產(chǎn)方式與社會運行邏輯。在此背景下,構建契合科技倫理的協(xié)同治理體系,已不再是可有可無的附加項,而是決定AI能否實現(xiàn)規(guī)模化落地、行業(yè)能否行穩(wěn)致遠的關鍵變量。
制度是根基,協(xié)同治理首在政府統(tǒng)籌、依法立規(guī),為發(fā)展劃定“紅線”與“軌道”。“十五五”規(guī)劃建議提出“加強人工智能治理,完善相關法律法規(guī)、政策制度、應用規(guī)范、倫理準則”;國務院“人工智能+”行動意見要求完善人工智能法律法規(guī)與倫理準則,推進相關立法,優(yōu)化安全評估和備案管理;多部門圍繞“人工智能+制造”強調落實倫理管理辦法,加強行業(yè)自律與企業(yè)倫理風險防范。
這些要求均來自產(chǎn)業(yè)實踐痛點,并非抽象原則。近段時間,某視頻生成模型頻頻陷入隱私和侵權爭議:僅憑一張面部圖像,就能夠模仿本人的聲音,僅用兩行提示詞,就能生成高水平視頻;某裝備制造企業(yè)曾因AI排產(chǎn)模型未進行公平性測試,導致中小供應商訂單被系統(tǒng)性壓縮,引發(fā)供應鏈信任危機。
實踐中,信任機制缺失往往源于三個方面:透明度不足、責任邊界模糊、權限控制失衡,這些問題直接制約產(chǎn)業(yè)規(guī)模化應用。因此,政府需發(fā)揮主導引領作用,通過完善法律法規(guī)與倫理準則,為AI發(fā)展劃定清晰邊界。
自律是保障,協(xié)同治理需要企業(yè)主責、行業(yè)自律,將合規(guī)轉化為核心競爭力。 對企業(yè)而言,合規(guī)不應被視為成本,而應成為贏得市場信任的“通行證”。隱私數(shù)據(jù)安全,各平臺守土有責,必須形成“數(shù)據(jù)不能被隨意拉取,隱私不能被隨意窺探”的行規(guī)和共識。那些主動構建安全架構、強化數(shù)據(jù)保護、提升透明度的企業(yè),更容易贏得市場信任與政策支持。相反,那些名為“創(chuàng)新”實為繞過所有移動互聯(lián)網(wǎng)生態(tài)的“黑灰產(chǎn)”,最終只會被行業(yè)和時代拋棄。
共識是土壤,協(xié)同治理必須織密全域公眾防護網(wǎng),形成多元共治的良性生態(tài)。人工智能的治理不僅是監(jiān)管者與開發(fā)者的事,更需要全社會的共同參與。媒體要加強科普引導,提升公眾對深度偽造、算法陷阱、信息泄露的識別能力;科研機構與倫理專家要前瞻研判風險,為治理提供專業(yè)支撐;用戶要謹慎開啟無障礙等權限功能,定期審查授權列表,避免在支付等高風險場景過度依賴AI代理,形成基本的數(shù)字安全素養(yǎng)。通過公眾安全意識的提升,形成強大的社會監(jiān)督力量,填補治理盲區(qū)。
人工智能時代的治理邏輯,從來不是限制創(chuàng)新,而是為創(chuàng)新保駕護航;協(xié)同治理的目標,也不是在風險邊緣試探,而是讓技術在可控軌道上加速前行。AI治理是系統(tǒng)工程、長期工程,唯有久久為功,才能趨利避害、賦能未來。只有當政府、企業(yè)、行業(yè)與用戶形成合力,將倫理合規(guī)內化為發(fā)展的內生動力,人工智能才能真正實現(xiàn)向上向善,在協(xié)同治理的護航下行穩(wěn)致遠。
來源:人民網(wǎng)觀點
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.