王勁松發文控訴AI盜用,聲音口型難辨真假,擔憂淪為詐騙工具
2月26日,知名演員王勁松在社交平臺發文,公開控訴自己的形象被不法分子利用AI技術盜用,生成虛假視頻,字里行間滿是震驚與擔憂,一句“聲音、口型完全看不出來真假”,瞬間引發全網共鳴,也再次將AI深度偽造的侵權亂象與安全隱患推至公眾視野。
![]()
據悉,王勁松偶然發現,有不法分子盜用他此前拍攝電視劇及公益宣傳的素材,通過AI深度合成技術,偽造出以假亂真的視頻,視頻中不僅面容與他高度一致,就連聲音、口型都精準貼合,逼真到連他的家人都無法分辨真假,這也讓他陷入深深的焦慮。
![]()
在發文之后,王勁松還在評論區進一步吐露心聲,道出了兩層核心擔憂:一是害怕這種高度逼真的AI偽造技術,被不法分子利用于詐騙,“不敢想以后會不會出現更真、性質更惡劣的AI肖像侵權行為,用于詐騙呢?”;二是維權的無力感,即便他第一時間向平臺投訴,涉事視頻被刪除或暫停推薦,涉事賬號也已無法搜索,但“侵權者的代價可以忽略不計”,這種不疼不癢的處置,根本無法形成有效震懾,也讓更多人面臨被侵權的風險。
![]()
事實上,王勁松的遭遇并非個例,隨著AI深度合成技術的普及,技術門檻大幅降低,只需一張照片、一段幾秒的語音,就能生成足以亂真的音視頻,AI換臉、AI仿聲引發的侵權事件頻發。而王勁松的擔憂,早已成為現實——現實中,已有不法分子利用AI技術偽造他人形象,冒充老板、親屬實施詐騙,有女子曾利用AI換臉偽造“白富美”人設網戀詐騙近13萬元,也有騙子冒充親屬聲音騙走老人錢財,此類案例屢見不鮮。
![]()
從法律層面來說,AI盜用他人肖像、聲音的行為,早已觸碰法律紅線。我國《民法典》明確規定,肖像權、聲音權均屬于人格權,未經權利人明確同意,任何組織或個人不得擅自制作、使用、公開他人肖像和聲音,否則構成侵權,權利人可要求停止侵害、賠禮道歉并主張精神損害賠償。若利用AI偽造內容實施詐騙、敲詐勒索等行為,還可能觸犯刑法,面臨刑事處罰,但當前AI侵權存在隱蔽性強、溯源難的問題,導致侵權者往往難以被追責,違法成本極低。
![]()
作為深耕影視圈多年的老戲骨,王勁松一直以嚴謹的敬業態度著稱,塑造了無數經典角色,此次公開發聲,不僅是為自己維權,更是為所有可能被AI侵權的人敲響警鐘。他的控訴,撕開了AI時代的痛點:技術的進步本應服務于人類,而非成為侵犯他人權益、實施違法犯罪的工具。
![]()
如今,AI深度合成技術的應用越來越廣泛,帶來便利的同時,也暗藏諸多風險。王勁松的擔憂,不僅是個人的焦慮,更是整個社會對AI技術規范發展的期盼。希望此次事件能推動相關部門加快完善AI監管體系,明確平臺責任,提高侵權違法成本,也提醒每一個人,警惕AI偽造帶來的風險,守住技術的倫理與法律底線,讓AI技術在規范中健康發展。
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.