![]()
來源 | 民主與法制時報
作者 | 夏偉 中國政法大學刑事司法學院副教授
北大法律信息網簽約作者
秦雨田 中國政法大學刑事司法學院博士研究生
黨的二十屆四中全會審議通過的《中共中央關于制定國民經濟和社會發展第十五個五年規劃的建議》(以下簡稱《建議》)強調,“加強人工智能治理,完善相關法律法規、政策制度、應用規范、倫理準則”。作為引領新一輪科技革命和產業變革的技術,人工智能在全方位賦能千行百業的同時,也面臨價值失序、利用失當、運行失范等法律風險,如一些不法分子利用人工智能實施非法獲取個人信息、詐騙、侵犯知識產權、侵犯商業秘密等違法犯罪活動。為了有效促進人工智能技術高質量發展、保護個人和企業的合法權利,應加快形成人工智能立法的中國方案。
人工智能立法的模式選擇
![]()
世界各國人工智能立法主要有兩種模式,即統一立法模式與分散立法模式。統一立法模式的代表為歐盟,其于2024年制定的《人工智能法案》是全球首部“規范集中、體系統一”的綜合性人工智能立法。有的國家人工智能立法采取分散立法模式,相關規定分散于各級別、各部門的立法之中。《建議》提出,全面實施“人工智能+”行動,以人工智能引領科研范式變革。在此背景下,采取統一立法模式規范人工智能發展可謂正當其時。
當前,我國人工智能領域的立法散見于《中華人民共和國民法典》《中華人民共和國網絡安全法》《中華人民共和國數據安全法》《中華人民共和國個人信息保護法》,一些行政法規與部門規章中,如《生成式人工智能服務管理暫行辦法》《互聯網信息服務算法推薦管理規定》《汽車數據安全管理若干規定(試行)》,還有一些地方性立法中,如《上海市促進人工智能產業發展條例》《深圳經濟特區人工智能產業促進條例》等。這些法律、行政法規、部門規章、地方性立法種類繁多、內容分散、體系復雜。
分散立法模式的主要任務是“先試先行”,它具有試驗性特征,通過短期試驗的方式檢驗制度成效,等待時機成熟之后可轉向統一模式。近年來,我國通過分散性立法的“先試先行”,已經探索出諸多適合我國人工智能發展與治理的關鍵制度,如人工智能訓練數據安全保護、部分生成式人工智能內容納入知識產權保護等。不過,分散性立法模式只能作為臨時性的權宜之計,從長遠來看,其存在三個根本性問題:一是重復性立法。在人工智能領域,下位法對上位法的復刻、同級立法規范的同質化等問題愈發普遍,有違立法的經濟性。二是沖突性立法。由于缺乏統一的上位法,不同行業、不同地區在人工智能立法時可能有沖突,有損立法的權威性。三是象征性立法。在人工智能發展早期,我國部分領域制定的人工智能立法規范大多僅具有象征性、宣示性,有礙立法的實效性。
未來,我國在人工智能領域應采取統一立法模式,并通過“三步走”策略融入已有的立法成果。第一步清理,清理人工智能領域重復性、沖突性、象征性立法;第二步整合,將人工智能領域已經通過“先試先行”審查的特色法律制度整合進立法;第三步建構,立足人工智能領域的中國問題、中國實踐與中國話語,制定“人工智能法”。
人工智能立法的基本原則
![]()
黨的二十屆四中全會圍繞人工智能治理體系的完善作了重要戰略部署,強調要“健全數據要素基礎制度”“加強人工智能同產業發展、文化建設、民生保障、社會治理相結合”。以良法保障“人工智能+”行動的全面實施,關鍵在于科學確立人工智能立法的基本原則。
第一,確立風險可控原則。人工智能治理的首要任務在于平衡安全和發展的關系,要把握人工智能發展趨勢和規律,加緊制定完善相關法律法規、政策制度、應用規范、倫理準則,構建技術監測、風險預警、應急響應體系,確保人工智能安全、可靠、可控。人工智能的迭代更新既不斷驅動經濟社會快速發展,也系統性放大社會治理風險,數據安全、財產安全、商業秘密安全等,如何有效管控人工智能風險亟待立法予以回應。風險可控原則嵌入人工智能立法,要求立法者根據人工智能的風險類型與等級建立分類分級監管機制,根據風險等級從高到低的變化監管力度依次遞減。此種基于風險可控的分類分級監管機制在我國立法中已有初步體現,例如,《生成式人工智能服務管理暫行辦法》第三條規定,對生成式人工智能服務實行包容審慎和分類分級監管。
如何對不同人工智能風險進行分類分級監管?筆者認為,我國人工智能立法應踐行風險可控原則,同步考慮利益分類(公共利益與個人利益)與風險分級(禁止、高風險、中風險、低風險),通過分類分級制度的有效實施引導人工智能技術向善。由于個人利益具有可處分性與可衡量性,而公共利益缺乏可處分性與可衡量性,因此,對公共利益風險的預防性監管應嚴格。其中,禁止性人工智能活動由于風險級別過高,無論涉及公共利益還是個人利益,一律不得開發和應用;高風險人工智能活動通常涉及公共利益,原則上也應被禁止,但出于保護國家利益或更大公共利益的除外。
第二,價值對齊原則。人工智能治理應當遵循“以人為本”理念,以增進人類共同福祉為目標。它要求人工智能的設計、決策應當與人類的價值觀、利益保護相一致,將“以人為本”作為可信人工智能構建的技術基準。
價值對齊原則的實現分為兩個層次:一是人工智能與人類現實價值對齊,即以人類現實利益為依歸設計算法、執行指令、作出決策。此種意義上的人工智能風險主要來源于算法和訓練數據,屬于可預期的風險范疇。例如,為了防止人工智能算法歧視、濫用人工智能技術偽造信息數據等,立法要求對算法公平性和訓練數據真實性進行有效干預以實現價值對齊。二是人工智能與人類遠期價值對齊,這屬于不可預期的風險范疇。無論人工智能系統如何精密設計與決策,都可能產生難以預期的風險。這就要求人工智能立法確立遠端風險預防機制,及時阻斷遠端風險現實化。
第三,穿透式監管原則。人工智能決策存在三大數字屏障,即算法技術“黑箱”、平臺優勢權力及海量數據決策。其中,算法技術“黑箱”限制監管者的認知能力,平臺優勢權力抑制監管過程的有效性,海量數據決策可能掩藏不法行為,三者疊加可能導致監管低效乃至無效。
為有效監管和預防人工智能風險,應當確立穿透式監管原則。具體而言:一是通過確立算法高度透明義務以穿透算法技術“黑箱”,防止敏感數據被算法隱秘地濫用;二是通過確立平臺義務清單與如實報告制度以穿透平臺優勢權利,防止平臺以利益為導向的濫用權利;三是通過推行可用不可見機制阻斷海量數據決策風險,防止監管力量被分散和被稀釋。
推進人工智能立法的重點方向
![]()
隨著“先試先行”立法的任務逐步完成,未來,我國要明確人工智能立法的思路與體例結構,并將實踐證明可行的重點制度轉化為立法規范,實現從分散性立法到系統性立法的質的躍遷。
在立法思路上,應從“內容治理”走向“內容治理+行為規制”并舉。當前,我國人工智能立法主要采取內容治理思路,如《生成式人工智能服務管理暫行辦法》聚焦于所生成內容本身是否合法,缺乏對事前、事中、事后行為的有效規制,這導致人工智能風險管控難以實現全流程。人工智能立法應在內容治理基礎上,將行為規制納入,進而形成“內容治理+行為規制”并舉的立法思路,對事前不當的數據收集、事中不當的算法決策、事后放任風險擴大等典型行為予以規制,這樣才能建立體系閉環的有效監管機制。
在立法體例上,應從側重行政規制走向民行刑一體化調控。當前,我國“先試先行”階段的立法重在促進人工智能技術發展,其規制措施主要是中端的行政手段,對前端的民事救濟、后端的刑事制裁關注相對不足。未來人工智能立法應同步規定民事救濟、行政規制與刑事制裁內容,并在體例上盡可能將三者形成梯度性的對應關系,以在民行刑一體化立法的基礎上,為人工智能領域各類問題的善治奠定基石。
在制度設計上,應重點發展人工智能領域的特色法律制度。未來,人工智能立法不僅要對已有的“先試先行”立法進行聚合,更需要朝著特色法律制度方向發展。例如,在內容治理層面,建立人工智能訓練數據的來源確認制度、人工智能生成內容的合法性審查制度等;在行為治理層面,建立人工智能決策負面清單制度、人工智能高風險決策緊急阻斷制度等。這些富有實效的特色法律制度,不僅要具備解決具體問題的實用性,還要共同構成人工智能領域區別于其他領域獨特的微觀法律系統。
*本文為國家社科基金項目“數字經濟時代實質穿透式定罪的適用路徑及其邊界研究”(項目編號:25CFX114)的階段性研究成果。
點擊進入下方小程序
獲取專屬解決方案~
責任編輯 | 金夢洋
審核人員 | 張文碩
本文聲明 | 本文章僅限學習交流使用,如遇侵權,我們會及時刪除。本文章不代表北大法律信息網(北大法寶)和北京北大英華科技有限公司的法律意見或對相關法規/案件/事件等的解讀。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.