![]()
十四屆全國人大三次會議開幕前
全國人大代表雷軍
提交了五份建議
其中包括一份:
關于加強“AI換臉擬聲”
違法侵權重災區治理的建議
全國人大代表雷軍在建議中指出:人工智能(AI)深度合成技術的快速發展,推動了“AI換臉擬聲”在影視、廣告、社交等領域廣泛興起,成為社會喜聞樂見、傳播力強、易成熱點的技術應用。
但同時也看到,“AI換臉擬聲”不當濫用造成了違法侵權行為的重災區,易引發侵犯肖像權、侵犯公民個人信息以及詐騙等犯罪行為,甚至造成難以挽回的大規模形象和聲譽損害,帶來社會治理等風險。
AI深度合成技術所需素材獲取便利、技術使用門檻低、侵權主體及其手段隱蔽性強等特點,給治理帶來較大挑戰。
青少年對前沿技術應用好奇心強,而老年人數字素養欠缺,往往會成為“Al換臉擬聲”網絡陷阱鎖定的主要目標,對其身心健康、財產安全以及社會穩定造成負面影響。
AI換臉會提取人臉圖像的面部特征,那么,一張靜態的人像照片被詐騙分子竊取后,也能進行換臉嗎?
眼見不一定為實
單張照片可實時視頻換臉
工業和信息化部反詐專班實驗室的技術人員稱,經過一段時間的模型訓練,一張照片可以在演示者的控制下,像真人一樣做出轉頭、張嘴、眨眼、微笑等表情和動作。
![]()
專家表示,除了讓照片上的人像活化,AI換臉技術還能實現在即時視頻通信狀態下的實時換臉。
不過想要達到實時換臉的效果,一張照片是遠遠不夠的,需要采集不同角度的照片近千張。
聲音的交流同樣不是難事,需預先采集一些目標人群當中的聲音,進行模型訓練后就能進行聲音還原。
因此,建議公眾不要在社交平臺過度公開或分享自己臉部的圖像、動圖及視頻。
AI換臉擬聲詐騙泛濫
到底怎么防?
讓對方用手指
或其他遮擋物在臉前晃動
可以要求對方用手指摁鼻子,或用其他遮擋物在臉前晃動,如畫面出現類似果凍效應或者扭曲,那對方很可能正在使用AI換臉技術。
![]()
詢問對方一些私密的問題
可通過詢問對方自己的生日、電話、喜好等,來確認對方的身份。
要求對方線下見面
凡是對方提到轉賬、借錢等涉及經濟往來的,為安全起見,可要求對方線下見面。
科科提醒,AI詐騙是隱私信息泄露與詐騙陷阱的結合。要加強對個人隱私的保護:不輕易提供人臉、指紋等個人生物信息;不過度公開或分享動圖、視頻;涉及“朋友”“領導”等熟人要求轉賬、匯款的,務必通過多種途徑核實確認。
不過公眾也不要對AI詐騙過度恐慌,國內的科研團隊、科技企業已經在研發專門針對虛假信息的檢測技術,不斷提升對于語音、面部合成信息的檢測成功率。
可以預測的是,這些人工智能反詐技術都將成為對抗“魔法”的“魔法”。
來源:國家應急廣播、央視新聞、人民日報、光明網
文章圖片用于公益科普,版權歸原作者所有,如有侵權,請聯系刪除
微信公眾號/科普熊貓
抖音號/科普熊貓
新浪微博/@成都科協
今日頭條/成都科協
![]()
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.