![]()
文/張健康
澳大利亞的社媒禁令立法產生的沖擊波正在快速向全球蔓延。
2026年4月8日,希臘總理基里亞科斯·米佐塔基斯(Kyriakos Mitsotakis)宣布,禁止15歲以下未成年人使用社交媒體。
雖然希臘議會預計要2026年年中才能完成社媒禁令的立法工作,但是希臘政府已經提前宣布了法律的執行時間表:2027年1月1日起正式強制實施。
希臘是最新一個宣布跟進通過專門立法對青少年使用社媒進行限制的國家。
上個月的最后一周,世界第四大人口大國印度尼西亞剛剛正式實施針對16歲以下人群的社交媒體禁令。
澳大利亞是全球第一個通過具有法律約束力的專門法來對青少年實施社媒禁令的國家。2024年11月,澳大利亞議會正式通過了《2024年網絡安全修正案(社交媒體最低年齡)法案》,明確規定16歲以下青少年禁止持有社交媒體賬號。該法律的一個突出特點是,把違規責任完全壓到科技平臺身上,而非家長和青少年。如果平臺未能采取“合理步驟”阻止 16 歲以下用戶注冊,會面臨高達 4950 萬澳元的罰款。
2025年12月10日法律正式生效。
繼澳大利亞之后,英國、西班牙、挪威、馬來西亞、印度尼西亞紛紛采取了通過專門立法的形式對青少年實施社媒禁令,葡萄牙、波蘭、斯洛文尼亞、希臘正在積極推進相關立法,而法國正在積極推動歐盟層面的統一立法(歐盟數字服務法的延伸),提議把全歐范圍內的社媒“數字成年年齡”統一設定為 15歲。
另有很多國家,雖然還沒有進行專門立法,已經利用既有法律規定對青少年使用社媒進行限制。
中國從2024年起就開始通過行政監督的形式對青少年使用短視頻等平臺進行限制。從新一輪的社媒禁令潮中,中國監管又能獲得哪些啟示,從而推動短視頻防沉迷問題得到進一步解決呢?
“切斷式”立法
印度尼西亞2025年1月就宣布要仿效澳大利亞,研究設定社媒最低使用年齡,作為加強網絡保護的一項國家戰略。
當年3月27日,印尼政府便正式通過2025年第17號政府條例,規定了電子系統提供商對保護兒童個人數據和數字權利應承擔的法律義務。從而為社媒禁令提供了母法。
2026年3月6日,印尼通信與數字事務部發布具體的部長令,對禁令進行了細節化,明確設定16歲為使用社媒的準入門檻。
3月28日,法律法律正式生效。印尼正式成為亞洲第一個通過專門立法強制執行社媒禁令的國家。
根據該法律,YouTube、TikTok、Facebook、Instagram等8家以短視頻信息流作為主打產品的平臺,必須于2026年6月6日前完成自主風險評估和向政府提交合規報告。過渡期內,13歲至16歲的用戶,可以經“父母授權”使用低風險平臺,高風險平臺則是全面切斷。
該項法律的實施,可能影響約7000萬印尼年輕人的網絡使用。
印尼仿效的澳大利亞的社媒禁令立法,從提案到法案獲得通過和正式實施,只用了約1年半的時間。
2024年年中,澳大利亞總理安東尼·阿爾巴尼斯(Anthony Albanese)公開稱社媒是“社會公害”,承諾年底前推出法律保護青少年免受數字風險侵害。到該年11月便完成了年齡驗證技術試驗、提交議案、公眾意見征詢等立法程序。11月27日和29日,分別獲眾議院和參議院通過。
獲得兩院高票通過的《2024年網絡安全修正案(社交媒體最低年齡)法案》給了科技公司1年的過渡期,要求科技公司必須于2024年12月至2025年12月期間完成“年齡防范”系統的開發、測試和上線工作。期間,Meta、TikTok、Google等科技巨頭與澳大利亞網絡安全專員進行了多輪技術談判,討論什么是“合理步驟”來驗證年齡。但最終還是于2025年12月10日正式進入強制執行階段。
首批被納入限制名單的社媒平臺包括Facebook、Instagram、TikTok、X(Twitter)、Snapchat和Reddit等主流社媒。YouTube的教育和兒童功能(YouTube Kids)獲得了特定豁免。
澳大利亞的社媒禁令立法,被視為全球首例“切斷式”立法的標桿。
Meta的至暗一周
與印尼社媒禁令生效的同一周,Meta連續遭遇了兩次敗訴。
首先是2026年3月24日,經過近7周審理,美國新墨西哥州陪審團做出裁定:Meta違反了該州消費者保護法,基于陪審團認定的數千項違規事實,Meta共需支付3.75億美元民事罰款。
案件起因可追溯至2023年的一次臥底調查:新墨西哥州調查人員偽裝成14歲以下未成年用戶分別注冊了一個Facebook和Instagram誘餌賬戶,隨后便收到大量色情內容和性邀約。
檢方指控Meta通過算法設計使年輕用戶沉迷平臺,同時隱瞞平臺上兒童性剝削的風險以及對兒童心理健康的影響。
Meta不服判決結果,計劃上訴。該案預計于5月4日進行后續審理。如果“公共滋擾”指控成立,Meta可能被迫更改相關算法和安全性保護措施。
新墨西哥州法庭判決公布次日,Meta和YouTube又被加利福尼亞州洛杉磯一家法院陪審團判定應對兒童用戶造成的傷害承擔責任,被判令賠償原告300萬美元。
原告是一位名叫Kaley的20歲女性。她聲稱6歲起就使用YouTube、9歲起就使用Instagram,童年時期對社交媒體的沉迷加劇了她的焦慮、抑郁和身體形象問題。
一同被列入被告的還有TikTok和Snap。但二者庭審前已達成和解。
該案被認為具有風向標意義,裁決結果很可能直接影響數千起類似訴訟的審理方向。而且從法律層面來看,此次訴訟有一個重要突破口,那就是繞過了《通信規范法》第230條。根據該條款規定,科技產品對用戶發布的內容享有法律豁免權。但此次起訴沒有聚焦于內容,而是聚焦于平臺的設計和運營,包括無限滾動、自動播放和通知推送等被指具有沉迷性的功能。
根據媒體最新報道,美國數以千計的學區和家庭正聯合起訴科技巨頭,指控它們故意設計帶有成癮性的產品特性。而科技巨頭們迫于壓力,主動修改了算法,以規避天價賠償。
美國立法拉鋸戰
美國各州檢方利用既有法律規定對青少年使用社媒進行限制,是迫不得已的舉措。因為美國憲法第一修正案對言論自由的保護,使得美國的“社媒禁令”落實遇到了極大的法律阻力。
美國不是沒有努力從聯邦和州級層面進行立法對青少年使用社媒進行限制。2024年7月30日,美國聯邦參議院就以91票贊成、3票反對的壓倒性優勢通過了兩項保護兒童數字安全的法案——《兒童網絡安全法》(KOSA)和《兒童在線隱私保護法案》(COPPA 2.0)。
KOSA的核心不是直接“禁止使用”,而是建立“注意義務”,要求平臺默認開啟最高級別的隱私設置,同時采取措施防止未成年人接觸鼓勵自殘、飲食失調、性剝削的內容;提供更強大的家長監控工具,允許父母限制孩子的使用時間和社交功能;還強制大型科技公司每年接受獨立審計,評估它們的產品對青少年心理健康的影響。
但直到2026年初,《兒童網絡安全法》還處于眾議院審議中。而且眾議院能源和商務委員3月5日投票推進了一項包含KOSA的“兒童在線安全一攬子計劃”。該計劃與參議院版本對執行細節和州政府權限存在分歧。
另外,聯邦衛生總監2025年至2026年多次提議社交媒體強制標注類似于煙草上標注“吸煙有害健康”那樣的“心理健康警告標簽”。
聯邦層面的立法遇阻,州級立法同樣遭遇了“拉鋸戰”。
比如加利福尼亞州議會2022年8月就全票通過一項《加州適齡設計規范法案》(CAADCA),要求平臺設計階段就必須優先考慮未成年人利益。同年9月15日,加州州長加文·紐森(Gavin Newsom)已經正式簽署通過。法案原定于2024年7月1日正式生效,但是2023年9月科技行業協會NetChoice提起訴訟,認為該法案侵犯了憲法第一修正案,而美國第九巡回上訴法院隨后裁定,政府不能以保護兒童為名,強制要求私營公司對合法言論進行審查,從而阻止了該法案的如期實施。
佛羅里達州與猶他州的立法遭遇了與加州相似的命運。兩州曾試圖立法禁止14歲抑或16歲以下青少年擁有社媒賬號,然而科技行業協會隨即提起訴訟,認為州的法案違反了憲法第一修正案。
壓力轉移給社媒平臺
不管是澳大利亞、西班牙、挪威、印尼等國的專門立法,還是美國各州的利用既有法律進行司法訴訟,此輪社媒禁令潮呈現出以下幾個共同的特點:
一是責任倒置,壓力轉移給社媒平臺。
正如澳大利亞總理安東尼·阿爾巴尼斯多次強調的那樣,該項立法的目的不是要懲罰孩子和讓家長感到內疚,而是要強迫社交媒體公司承擔責任。
社媒平臺的核心責任是,進行產品設計時就必須證明它們提供的內容對未成年人是安全的,而不是像過去那樣通過簡單的“年齡聲明”來規避責任。
如果平臺未能采取“合理步驟”阻止青少年用戶注冊,就會面臨巨額罰款。
二是從呼吁行業自律轉向強制法律義務。
立法前,各國政府的普遍做法是通過發布“青少年上網指南”“行業自律公約”,建議社交平臺減少有害內容。但因為沒有法律強制力,社媒平臺仍然是“法外之地”,擁有定義規則的權力。
各國政府通過立法收回了平臺的規則制定權,給青少年劃定了數字國界。
為了確保數字國界不被輕易逾越,各國的立法不再允許用戶勾選“我已滿16歲”之類的“自我聲明年齡”的謊言,而是強制平臺使用生物識別(比如面部分析)、電子ID、第三方驗證服務。據報道歐盟多國正聯合開發跨國界的身份核驗App,以實現標準化的年齡認證。
盡管法律做出了嚴格的規定,而且現在已經具備技術可行性,但是要徹底防止“自我聲明年齡”謊言絕非易事。Meta庭審中回應檢方的指控時稱“準確確定在線年齡是整個行業面臨的挑戰”并非全是托詞。
三是保護的目標轉向心理健康和防沉迷。
“隱私安全”是以前各國保護青少年網絡用戶的重點,但各國的社媒禁令立法不再僅僅關注“隱私安全”,而是轉向心理健康防護和防沉迷。比如針對日益嚴重的網絡霸凌、深偽色情和網絡誘拐,立法明確要求平臺建立“防火墻”。再比如社媒的無限滾動、點贊機制和個性化推送普遍被視為導致青少年焦慮、抑郁和自殘傾向的誘因,要求平臺修改算法防止成癮。
四是區分工具和社媒,設立數字避風港。
立法不是要徹底斷絕青少年使用社媒的權力,對于一些青少年學習和社交的基本工具,各國禁令普遍設立了一個“避風港”,比如WhatsApp、Messenger等即時通訊工具通常不被列入禁令。還有YouTube Kids、線上課堂工具以及Steam那樣的游戲分發平臺,通常不被定義為“社媒”。
中國短視頻防沉迷待解
青少年沉迷短視頻等社交媒體是全球性問題,在我國也同樣存在類似的挑戰。根據共青團中央與中國互聯網絡信息中心(CNNIC)聯合發布的《第5次全國未成年人互聯網使用情況調查報告》提供的數據顯示,隨著游戲監管收緊,短視頻和社交媒體已成為未成年人主要的網上休閑活動,且經常刷短視頻的比例已達到54.1%,成為了新的監管挑戰點。
客觀而言,作為一個擁有超兩億6歲至19歲網絡用戶的國家,中國在對未成年人的數字保護上,一直走在世界前列。從2023年10月24日國務院頒布《未成年人網絡保護條例》,到2024年11月15日國家網信辦發布《移動互聯網未成年人模式建設指南》和國家網信辦聯合中央精神文明建設辦公室、教育部、國家廣播電視總局等部委共同發布《可能影響未成年人身心健康的網絡信息分類辦法》,再到2025年9月28日全國人大常委會修訂通過《中華人民共和國網絡安全法》,中國的未成年人網絡保護已經形成一個“系統級干預+分齡管理”的模式。從未成年人數字保護的法制進程來看,中國立法和監管部門走在了世界前列,并取得了明顯效果。
但在2026年全國“兩會”期間,未成年人的數字沉迷問題依然成為討論熱點。針對不少青少年沉迷刷短視頻、睡眠時間被嚴重擠占問題,有人大代表進一步推行“深夜靜默”模式,強化凌晨時段平臺管控,以保障青少年的身心健康。一些代表委員正式呼吁設置16周歲“數字年齡”紅線,改變目前主要通過實名制和未成年人模式進行數字保護的做法,改為禁止16歲以下未成年人注冊社交媒體賬號。
這些建議背后的一個客觀事實是,當前針對包括短視頻在內的社交媒體監管,仍存在明顯短板和漏洞,比如未成年人可通過游客模式或借用成人賬號輕易繞過青少年模式,防護機制形同虛設。此外,當前的未成年人保護模式,嚴格依賴家庭監督難以應對平臺算法的系統性風險,部分平臺在盈利與合規之間存在博弈,執行動力不足,對未成年人的訪問行為缺乏足夠的檢查和防范動力,讓未成年模式的保護效果大打折扣。
從當下海外的未成年人數字保護趨勢來看,一方面從法律上進一步壓實平臺責任,從之前指引性的“軟提示”變為法律的“硬約束”;另一方面在責任追究上,也從之前的以內容為核心,開始延展到平臺的產品設計機制,像Meta案中的無限滾動、自動播放和通知推送等機制,同樣被認為是對青少年造成傷害的重要元兇。
作為青少年數字保護領域的優等生,在全球數字保護浪潮不斷升溫的背景下,中國對未成年人的數字保護模式也到了從無到優、從優到嚴的關鍵時刻。從澳大利亞、英國、西班牙、挪威、印尼等國的立法經驗和美國多州的司法實踐來看,實行責任倒置,讓社媒平臺承擔更多的責任,可能是無法避免的選擇。
(作者系經濟學者)
(作者 張健康)
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.