澳大利亞去年12月實施的全球首個社交媒體禁令,正在遭遇一場尷尬的"執行潰敗"——法律生效四個月后,超過60%的16歲以下用戶依然活躍在各大平臺。當英國政府還在權衡是否要跟進時,這份來自前線的真實數據,或許能讓決策者重新思考:技術禁令的邊界到底在哪里?
一場"紙面勝利":禁令生效后的真實圖景
![]()
2025年12月,澳大利亞成為全球首個立法禁止16歲以下青少年使用社交媒體的國家。這項覆蓋TikTok、Instagram、YouTube等10大平臺的禁令,曾被視作保護未成年人數字權益的里程碑。
然而,莫莉·羅斯基金會(Molly Rose Foundation)今年3月12日至31日進行的在線調研,撕開了政策光鮮的表象。數據顯示:53%的未成年用戶仍在使用TikTok,53%仍在刷YouTube,52%的Instagram賬號依然活躍。更關鍵的是,這些并非新注冊賬號——它們大多是禁令生效前就已存在的老賬戶。
平臺的執行力度同樣堪憂。調研發現,三分之二(約66%)的YouTube用戶、61%的Snapchat用戶、以及60%的Instagram和TikTok用戶表示,平臺并未主動關閉他們"理應被禁用"的賬號。法律要求的"清退存量、封堵增量",在現實中變成了"既不清理舊賬,也難阻止新戶"的雙輸局面。
這里需要厘清一個技術細節:澳大利亞禁令的核心機制是年齡驗證(age verification),而非簡單的年齡聲明(age declaration)。理論上,平臺需要通過第三方驗證或生物識別技術確認用戶年齡,但顯然,這套系統存在明顯的漏洞——要么驗證流程被繞過,要么平臺缺乏動力嚴格執行。
繞過禁令的三條暗道:孩子們比監管者更懂技術
禁令失效的背后,是未成年人展現出的驚人"技術韌性"。根據多方觀察,目前至少存在三條主流繞過路徑。
第一條是虛擬專用網絡(VPN,即虛擬專用網絡)。通過切換IP地址至未實施禁令的國家或地區,用戶可以完全規避平臺的地理圍欄檢測。澳大利亞雖在討論VPN禁令,但技術上幾乎不可行——VPN流量加密后,ISP(互聯網服務提供商)難以區分正常流量與規避流量,全面封鎖將誤傷大量合法商業用途。
第二條是賬號共享與代注冊。青少年使用父母、兄姐或其他成年人的身份信息注冊賬號,已成為公開的秘密。年齡驗證系統再精密,也難以穿透"家庭內部授權"這層社會關系。更極端的案例中,甚至出現了專門面向未成年人的"代注冊黑產"——成年人批量注冊賬號后出租給青少年使用。
第三條是平臺自身的"選擇性失明"。調研中高達60%以上的用戶聲稱賬號未被關閉,暗示平臺可能采取了消極執行策略。這背后的商業邏輯并不復雜:青少年是社交媒體最核心的增長引擎之一。TikTok的算法推薦高度依賴用戶行為數據的累積,16歲以下用戶的"數字原生"特質使其內容消費和創作活躍度顯著高于成年群體。嚴格執行禁令,意味著主動放棄這一高價值用戶群。
一個值得玩味的細節是YouTube的特殊處境。作為谷歌旗下平臺,YouTube在澳大利亞同時承擔教育、新聞、娛樂等多重社會功能,其內容生態的"公共基礎設施"屬性,使得全面封禁未成年用戶面臨更大的輿論反彈。這或許解釋了為何YouTube的"清退率"在調研中表現最差——三分之二的違規賬號仍在運行。
英國的兩難:跟進的政治誘惑與執行的現實骨感
澳大利亞的困境,正成為英國決策者的前車之鑒。英國政府目前仍在"考慮"類似禁令,但立場已出現微妙松動——從早期的積極倡導,轉向更為審慎的評估。
這種轉變有其政治邏輯。英國工黨政府面臨的雙重壓力在于:一方面,青少年心理健康與社交媒體成癮的關聯已成為跨黨派共識,"保護兒童"是幾乎零風險的道德高地;另一方面,澳大利亞的實證失敗提供了現成的"甩鍋素材"——若禁令注定流于形式,強推立法反而可能暴露治理能力的短板。
更深層的張力在于技術治理的范式之爭。澳大利亞模式代表"平臺責任"路徑:通過法律強制平臺承擔年齡驗證義務,失敗則處以巨額罰款。但這條路徑的隱形成本被低估了——年齡驗證技術的誤報率(將成年人識別為未成年人)可能排斥合法用戶,而生物識別數據的收集又引發隱私權爭議。法國近期推動的15歲以下禁令,甚至將矛頭指向"美國平臺"和"中國算法",折射出數字主權博弈的復雜維度。
英國的猶豫,也可能源于對替代方案的探索。與澳大利亞的"一刀切"禁令不同,部分政策研究者更傾向于"分級治理"——例如限制特定功能(如無限滾動、算法推薦)而非全面封禁,或要求平臺開放API(應用程序接口)供第三方家長控制工具接入。這些方案的執行復雜度更高,但規避了"全面禁令全面失效"的尷尬。
被忽視的第三方:家長、學校與數字素養的缺位
現有討論的一個盲點,是將博弈簡化為"政府vs平臺"或"監管vs技術"的二元對立。但澳大利亞調研揭示了一個被壓抑的事實:大量未成年人使用社交媒體,恰恰是在家長知情或默許的情況下發生的。
賬號共享現象的背后,是家庭數字治理的普遍失效。許多父母自身就是重度社交媒體用戶,缺乏限制孩子使用的道德權威;另一些家長則將手機和平板視為"電子保姆",主動用屏幕時間換取個人空間。禁令將責任完全轉嫁至平臺,客觀上為家長卸下了教育義務——"既然法律禁止了,我就不用管了"的心態悄然蔓延。
學校的角色同樣尷尬。數字素養教育在多數國家仍停留在"網絡安全"的淺層說教,未能幫助學生建立批判性的媒介使用能力。當青少年通過VPN繞過禁令時,他們展現的技術能力恰恰說明:現有的教育框架,既未能培養健康的使用習慣,也未能提供替代性的數字社交方案。
莫莉·羅斯基金會的調研背景值得注意——該基金會以一位因網絡霸凌自殺的16歲女孩命名,其使命直指社交媒體與青少年心理健康的關聯。但即便是這樣立場鮮明的倡導機構,其數據也顯示:禁令的符號意義大于實質效果。政策制定者需要回答的問題是:當法律無法抵達執行層面時,其存在本身是否仍有價值?還是反而制造了"問題已解決"的虛假安全感?
全球實驗的下一階段:從禁令到架構
澳大利亞的"失敗"并非終點,而是全球數字治理實驗的關鍵數據點。目前可見的演進方向有三條。
第一條是技術驗證的升級。下一代年齡驗證系統可能整合多源數據——不僅是用戶提交的身份證明,還包括設備指紋、行為生物特征(如打字節奏、滑動模式)乃至跨平臺數據關聯。但這將觸及隱私權的紅線:當平臺掌握足夠數據以高精度推斷用戶年齡時,其監控能力也已遠超"未成年人保護"的初衷。
第二條是責任主體的重新分配。部分政策提議將部分合規義務轉移至終端——例如要求手機操作系統(iOS/Android)內置家長控制功能,或在應用商店層面實施年齡分級。這種"上游治理"模式的優勢在于攔截節點更少,但同樣面臨越獄設備和側載應用(即繞過官方應用商店安裝軟件)的規避。
第三條是內容而非訪問的管制。與其禁止青少年使用平臺,不如限制平臺向青少年展示的內容類型和推薦機制。歐盟《數字服務法》(DSA,即數字服務法)已要求大型平臺披露算法推薦邏輯,并為用戶提供"非個性化"選項。這一路徑的挑戰在于:算法黑箱的透明度提升是緩慢的技術-法律過程,而青少年對"無聊"內容的耐受度極低——沒有算法推薦的TikTok,可能迅速失去用戶黏性。
英國最終的選擇,將在很大程度上定義英語世界數字治理的基準線。若選擇跟進澳大利亞模式,需直面同樣的執行困境;若選擇差異化路徑,則需承擔"對兒童保護不力"的政治風險。無論何種選擇,澳大利亞的實證數據都已證明:在高度互聯的數字生態中,單一國家的孤立禁令,難以對抗全球平臺的網絡效應和技術彈性。
當60%的禁令目標用戶依然活躍在平臺上,我們究竟在治理什么——是未成年人的屏幕時間,還是成年人對"數字失控"的集體焦慮?當技術解決方案持續失效,是否意味著我們需要重新協商"童年"與"數字公共領域"的邊界,而非簡單地用防火墻將其隔離?
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.