![]()
IDC數據顯示,2025年中國AI搜索月活用戶已超6億,超六成企業級用戶在決策前優先通過AI問答平臺獲取供應商信息。
中國信通院數據顯示,2024年中國GEO服務市場規模已超過42億元人民幣,年復合增長率達到38%。據弗若斯特沙利文預測,2026年這一規模將突破180億元,年復合增長率超45%。
然而,央視“3·15”晚會揭露的AI(人工智能)“投毒”黑產,撕開了生成式AI商業化進程中的灰色地帶。當公眾對AI建立起信任時,一些GEO(生成式引擎優化)服務商卻通過系統性“投喂”虛假信息,讓AI淪為商家的“營銷傀儡”,肆意染污用戶的AI與搜索生態,對用戶形成誤導從而謀取利益。
系統、有效治理AI被“投毒”灰產,已經刻不容緩。
一問:AI為何成為“投喂”虛假信息的重點對象?
根源在于其作為新興信息入口的權威性與技術漏洞的雙重性。
一方面,AI大模型被公眾視為客觀理性的“知識共識”來源,用戶對其輸出內容存在天然信任;另一方面,AI的“幻覺”缺陷和數據依賴特性使其易被操控。
大模型基于概率生成內容,當訓練數據缺失時會自動編造“合理”細節,而GEO灰產正是利用這一漏洞,通過批量投喂虛假信息污染訓練數據,使AI將謊言內化為“標準答案”。
例如,2025年西藏定日縣地震中,AI生成的“小男孩被埋”圖因六根手指暴露破綻,但更隱蔽的虛假信息已能通過交叉驗證機制欺騙AI,即當多個賬號發布相同虛假內容時,AI會誤判為“事實”并優先推薦。
攻擊者只需通過偽造數據、篡改標注等手段,就能在模型訓練階段植入“污染源”,讓AI在潛移默化中吸收錯誤認知,后續輸出的內容自然偏離客觀事實。更關鍵的是,AI具備規模化、自動化的信息傳播能力,一條被“投毒”的AI生成內容,可在短時間內借助各類平臺觸達海量用戶,其虛假信息的傳播效率與覆蓋范圍遠超傳統人工傳播,這種傳播效能被灰產盯上后,便成為低成本制造輿論、誤導公眾的高效工具。
二問:誰為GEO灰產提供了可乘之機?
商業利益驅動是AI被“投毒”灰產亂象背后的核心引擎。
流量是互聯網商業模式的血液,AI正在成為流量分配的新入口。當用戶習慣了向AI提問并直接采納其建議時,誰能影響AI的回答,誰就能掌握流量變現的密碼。對于商家而言,出現在AI回答中的推薦鏈接或品牌名稱,意味著巨大的曝光量和潛在客戶。這種極致的流量追逐,使得原本應用于合規營銷的SEO技術發生了異化。
灰產團伙發現,與其費盡心力優化內容質量,不如直接偽造內容欺騙AI來得高效低廉。一條完整的黑色產業鏈迅速形成:上游是有著迫切推廣需求的商家,中游是編寫惡意指令、批量生成虛假帖子的技術團隊,下游則是負責分發、刷量以增加權重的“水軍”。
灰產團伙利用AI技術來對抗AI,通過自動化腳本生成數以萬計的看似合理的虛假測評、虛構的新聞報道,將真實信息淹沒在噪音之中。這種“用魔法打敗魔法”的行徑,不僅極大地降低了營銷成本,更能在短時間內迅速占領AI的“心智”,實現收割流量的目的。
另外,不少中小商家為降低獲客成本,主動尋求GEO灰色服務,將AI推薦視為低成本流量入口,2025年電商、本地生活領域的GEO灰色服務訂單量同比增長190%,旺盛的市場需求也直接推動了灰產鏈條的快速擴張。
三問:為什么虛假信息的技術甄別和清除難度大?
技術層面的甄別難題,為GEO灰產的泛濫提供了發育和成長的條件。
當前的AI算法在處理高仿真虛假信息時,仍面臨著巨大的挑戰。隨著生成式AI技術的普及,制造虛假內容的門檻被無限拉低,灰產人員同樣可以使用大模型生成邏輯通順、文風自然的偽原創內容。
這些由機器生成的文本,在語言特征上與人類真實表達幾乎無異,甚至在邏輯嚴密性上更勝一籌。對于依靠概率統計來判斷內容質量的AI模型而言,很難分辨一段文字是人類真實經歷的記錄,還是機器生成的謊言。
此外,多模態技術的發展更讓“有圖有真相”成為了歷史,偽造的圖片、視頻配合文字,能夠構建出極具欺騙性的證據鏈,讓AI在判斷時徹底迷失。算法在處理這類復合型、高仿真的虛假信息攻擊時,往往顯得“力不從心”。現有的過濾機制大多基于已有的違規詞庫或明顯的邏輯漏洞,而對于這種基于特定目的、經過精心包裝的GEO“投毒”內容,技術防御體系尚顯得脆弱且滯后。
算法“黑箱”特性加劇了問題的隱蔽性。多數商業AI系統并不公開其訓練數據構成或權重分配邏輯,外界難以追溯某條錯誤輸出的根源。當用戶發現某地餐館在AI推薦中異常突出,卻無法判斷這是源于真實口碑還是人為刷量?
這種不可解釋性不僅削弱了公眾監督能力,也為灰產提供了天然的“保護傘”。即便平臺事后察覺異常,也常因缺乏有效溯源手段而只能被動清理表面內容,難以根除背后的操縱鏈條。
四問:為什么AI“投毒”灰產長期處于監管盲區?
面對如此嚴峻的形勢,這一亂象卻長期處于被忽視的邊緣地帶,其原因值得深思。
技術發展的不確定性在客觀上遮蔽了問題的嚴重性。正如上文所說,大模型的“黑箱”特性,使得其生成錯誤答案的過程難以追溯。當AI一本正經地胡說八道時,普通用戶往往難以在第一時間察覺,甚至可能因為AI“自信”的語氣而產生信任。
這種現象被業界稱為“幻覺”,但GEO“投毒”造成的危害遠甚于技術性的幻覺,它是人為制造的定向誤導。由于缺乏有效的溯源機制,受害者即便發現被誤導,也往往投訴無門,難以界定是技術故障還是人為作惡。
虛假信息從注入內容池到被AI抓取訓練、最終呈現給用戶,整個傳導鏈條最短需要15天,最長可達3個月,危害爆發時很難追溯到最初的信息投放主體。現有監管規則更多聚焦于AI服務提供者的主體責任,針對GEO灰產的投放行為、中介服務的定性和處罰標準尚未明確。
盡管《生成式人工智能服務管理暫行辦法》已對AI服務提供者的訓練數據質量責任作出規定,但對GEO這類新型灰產的網絡平臺“投毒”行為,相關規制仍存在空白。有關專家建議將“針對AI系統的惡意信息投喂操縱行為”明確納入《反不正當競爭法》規制范疇,打通從GEO服務商到委托商家的全鏈條追責路徑。
壓實平臺主體責任同樣重要。AI服務提供方應建立信源數據分級可信度評估機制,對檢索來源實施黑白名單管理或者采納權重升降級機制,從技術上提升“中毒”門檻;平臺也應進行異常流量監測,對不規范或惡意矩陣賬號進行監控和治理。
五問:如何應對AI“投毒”灰產的系統性染污?
更值得警惕的是,這類“投毒”行為正在從單點攻擊演變為系統性污染。
早期灰產多聚焦于單一平臺或特定場景,如今則呈現出跨平臺協同、數據復用的趨勢。一段偽造的本地評論可能同時被用于訓練搜索引擎、語音助手和智能客服等多個AI系統,形成連鎖污染效應。由于各平臺間缺乏數據共享與風險聯防機制,一處漏洞可能引發整個信息生態的連鎖失真。
AI系統的數據饑渴與GEO業務的商業邏輯在此交匯,共同構筑了一個高回報、低風險的灰色溫床。技術設計者追求效率與規模,平臺運營方追逐流量與轉化,而監管體系尚未跟上技術迭代的速度,多重因素疊加,使得虛假信息投喂不僅可行,甚至成為某些細分市場中的“標準操作”。若不及時干預,這種扭曲的信息輸入將持續侵蝕AI系統的可信度。
跨部門協作是系統治理亂象的關鍵。監管框架必須打破“頭痛醫頭”的碎片化思路,轉向覆蓋全生命周期的協同治理。
立法層面應明確AI開發者、數據提供方與平臺運營者的連帶責任,要求其對訓練數據的合法性與代表性承擔舉證義務。可考慮在《網絡安全法》《數據安全法》基礎上出臺專項指引,將“數據投毒”納入網絡攻擊范疇,賦予網信、公安、市場監管等多部門聯合執法權限。
平臺責任則需具體化:不僅限于事后刪除違規內容,更應建立事前篩查機制,對高頻提交相似地理標簽內容的賬號實施流量限制或人工復核。
六問:公眾應如何辨別真偽,守護信息安全?
面對日益逼真的生成式虛假信息,公眾的辨識能力與媒介素養成為至關重要的社會免疫細胞。
提升公眾“免疫力”不能停留在泛泛而談的警示,而需提供具體可操作的方法論。一個核心原則是“主動驗證,交叉比對”。面對一段極具沖擊力的AI生成視頻或文本,公眾應養成習慣:核查信息源頭是否來自權威機構或可驗證的媒體;利用反向圖片搜索工具驗證圖片或視頻幀的真實性;將事件的關鍵信息(如地點、人物、時間)與多個獨立、可信的信源進行交叉比對。
警惕那些煽動極端情緒、聲稱掌握“獨家絕密”或要求立即分享傳播的內容。教育體系需將數字素養與批判性思維訓練貫穿始終,從基礎教育階段就開始教授如何評估在線信息的可信度,理解AI生成內容的潛在特征與局限。
社區、圖書館與媒體平臺可以合作,普及辨識深度偽造與虛假信息的實用技巧。社會層面的廣泛覺醒,能為虛假信息市場創造強大的“需求側”阻力。
“最關鍵的是要建立‘AI不是百科全書’的認知。”專家建議,公眾應將AI視為高效的信息整理工具,而非權威的事實裁判者,歸根結底,技術素養的提升,是公眾在AI時代保護自身權益的基礎。
此外,AI服務提供商未來還應提升AI的透明度與可解釋性,向消費者披露輸出信息的依據、信源及其權重,以幫助用戶自主判斷AI輸出的可信度,并更好地保護消費者權益。
(經濟觀察網 李強/文)
免責聲明:本文觀點僅代表作者本人,供參考、交流,不構成任何建議。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.