如今,AI技術發展迅猛,能輕松生成逼真圖文,“眼見為實”早已不可靠。從假新聞照片到明星虛假代言視頻,網絡世界真假難辨。我們該如何避免被“數字謊言”欺騙?
2025年TED大會上,深耕數字取證領域30多年的美國學者哈尼·法立德(Hany Farid)給出了方向。曾憑借照片證據破獲兇殺案的他指出,AI造假雖然厲害,但存在致命弱點,無須畏懼。
01
AI圖片造假是如何做到的?
如今,照片移形換位、清除人物已成常規操作,過去靠修圖軟件,現在手機AI就能輕松完成。
要識別假圖片,得先了解AI“畫圖”過程:它像超級聰明的畫師,先學海量圖片掌握技巧,再將真實圖片打散成無序像素點,學習重組,這樣既能還原圖片,還能按指令重新排列像素,創造出長頸鹿穿毛衣、憑空生成鯊魚等內容。
![]()
AI創作與相機拍照完全不同,相機靠光線與物理世界真實互動記錄影像,是物理學產物;而AI僅依據數據和概率“猜”畫,是統計學產物。例如,AI知道狗有毛發、尾巴和4條腿,會隨機組合這些元素,卻不懂狗的身體結構。
![]()
02
揭穿AI的“小破綻”
AI因不懂物理規律,即便畫面驚人,也會留下“小破綻”。哈尼·法立德及其團隊正是利用這些缺陷判斷圖片真假。
“像素指紋”:從噪點中尋找線索
手機拍攝的真實照片,有光線在傳感器上留下的獨特隨機的噪點;而AI生成圖片的噪點,放大后呈規律排列,如同AI蓋下的“數字指紋”。
哈尼·法立德通過對比圖證實:真實照片物體噪點混亂,AI生成圖片物體噪點呈獨特星狀結構,即便肉眼難以察覺,專業分析也能識破,我們可憑規則噪點判定是否為AI作品。
![]()
“歪七扭八”的透視:AI的幾何學弱點
現實中,鐵路軌道等平行物體遠處會交會于一點,這是透視規律。畫家早就運用此原理營造立體感。
但AI不懂透視本質,畫的“平行線”常方向雜亂。在演講中,哈尼·法立德以“士兵”圖為例,圖中地下室墻壁本應平行,延長邊線卻發現未交會于合理消失點,這說明場景在物理上不可能存在。AI在處理復雜場景時,難以保障物體透視關系準確,這就成為重要的鑒定線索。
“不靠譜”的影子:AI的光源邏輯混亂
同一場景中,影子應源于同一光源、方向一致,這是基本物理規律。但AI常“畫”錯影子,導致同一場景的影子方向各異,仿佛多光源照射。
若圖片中影子指向不同,大概率是AI生成的——目前AI無法像人類一樣,在三維空間中準確模擬光線和陰影關系。對于專業人士而言,分析物體影子投射方向、檢查是否指向合理光源,是判斷圖片真實性的重要步驟。
![]()
這些漏洞揭示了AI本質:它是強大的模式匹配機器,不懂世界運行法則,即便畫面逼真,細節仍能找到破綻。
05
你的“反擊”武器:4個超實用小技巧
![]()
即便沒有專業數字取證工具,我們也能像“數字偵探”一樣,保護自己不受虛假信息侵害。哈尼·法立德給出4條建議。
“別急著轉發”:遇到令人震撼、憤怒的圖片,先冷靜。點擊分享前,通過官方新聞機構等多渠道交叉求證,無佐證的單張圖片大概率為假圖片。
“學會看‘身份證’”:未來更多圖片、視頻會自帶內容憑證(Content Credentials),其如同“出生證明”,學會識別它,可辨別真假。
“社交媒體不是新聞站”:社交媒體的算法會優先推送能引發強烈情緒的內容,這類內容常是虛假的。因此,獲取新聞時應選專業、有編輯團隊把關的官方新聞網站。
“做個有責任心的分享者”:轉發未證實的信息,會成為假新聞的“幫兇”。分享前應確認信息真實性,做負責任的信息傳播者。
AI造假與識別技術的博弈,恰似一場永不停歇的攻防戰。今天辨別虛假的破綻,或許很快會被技術迭代抹平,真假邊界可能更模糊。但技術是人類意志的延伸,AI這把雙刃劍,是制造混亂的工具還是構建可信數字生態的助力,關鍵在于每個人的選擇。面對海量信息多一分審慎,傳播前多一次求證,就是在為抵御數字謊言筑防線。
責任編輯 | 段雯娟 趙青云
運營編輯 | 趙青云
質量審核 | 王維嘉 李雅欣
圖片來源|《知識就是力量》雜志《識別AI造假照片,做數字時代“鑒真達人”》,圖文/王治鈞(內容整理自信息取證專家哈尼·法立德的演講),原創作品轉載請注明來源。
知識就是力量
現訂購2026年
《知識就是力量》雜志
定價360元
把一整年的知識搬回家
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.