品玩3月18日訊,據(jù)BleepingComputer 報道,瀏覽器安全公司LayerX研究人員披露了一種新型字體渲染攻擊技術(shù)。該手段利用自定義字體進(jìn)行字形替換,并結(jié)合CSS樣式隱藏底層HTML中的無害文本,從而在網(wǎng)頁上向用戶顯示惡意命令,而AI助手僅能讀取被偽裝的無害代碼。這種“所見非所得”的差異導(dǎo)致AI無法識別潛在風(fēng)險,甚至誤導(dǎo)用戶執(zhí)行危險操作。
測試顯示,截至2025年12月,該攻擊對ChatGPT、Claude、Copilot、Gemini及Perplexity等主流AI助手均有效。攻擊者常以游戲彩蛋為誘餌,誘導(dǎo)用戶運行反向Shell命令。當(dāng)用戶詢問AI指令安全性時,模型因無法解析渲染層內(nèi)容而給出錯誤的安全評估。
LayerX于2025年12月16日通報相關(guān)廠商,多數(shù)以依賴社會工程學(xué)為由拒絕受理,唯Microsoft正式接納并修復(fù)了該漏洞。Google雖初判高危,后仍認(rèn)定危害有限而關(guān)閉工單。專家建議,AI模型應(yīng)同時分析渲染頁面與DOM結(jié)構(gòu),并將字體及顏色偽裝納入安全掃描范圍,以防范此類視覺欺騙攻擊。
![]()
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.