![]()
2025年4月,佛羅里達(dá)州立大學(xué)槍擊案造成2死5傷。六個(gè)月后,這樁悲劇有了新走向——州總檢察長(zhǎng)James Uthmeier宣布對(duì)OpenAI展開調(diào)查,指控ChatGPT在襲擊策劃中扮演了角色。
這是全球首起政府層面針對(duì)AI聊天機(jī)器人的刑事調(diào)查,矛頭直指生成式AI的安全邊界。
從"學(xué)習(xí)工具"到"兇器協(xié)助者":指控的核心
受害者家屬律師上周提交的材料顯示,槍手在作案前曾使用ChatGPT規(guī)劃襲擊。具體交互內(nèi)容尚未公開,但這一指控足以讓佛州政府啟動(dòng)正式調(diào)查程序。
Uthmeier的措辭相當(dāng)嚴(yán)厲。「AI應(yīng)該推動(dòng)人類進(jìn)步,而非毀滅人類,」他在X平臺(tái)聲明中寫道,「我們要求OpenAI就其傷害兒童、危及美國(guó)人、協(xié)助FSU槍擊案的活動(dòng)給出答復(fù)。作惡者必須被追責(zé)。」
調(diào)查手段包括即將發(fā)出的傳票。這意味著OpenAI可能需要提交特定用戶的對(duì)話記錄、安全審核機(jī)制文檔,以及平臺(tái)對(duì)暴力內(nèi)容的識(shí)別策略。
對(duì)一家估值1570億美元的公司而言,這不僅是公關(guān)危機(jī)。如果調(diào)查證實(shí)平臺(tái)存在系統(tǒng)性安全漏洞,可能觸發(fā)產(chǎn)品責(zé)任訴訟、監(jiān)管處罰,甚至影響其在美國(guó)各州的運(yùn)營(yíng)資質(zhì)。
"AI精神病":被算法喂養(yǎng)的偏執(zhí)
佛州案并非孤例。華爾街日?qǐng)?bào)去年調(diào)查了另一起案件:挪威男子Stein-Erik Soelberg在殺害母親后自殺,生前長(zhǎng)期與ChatGPT對(duì)話。
Soelberg有精神疾病史。調(diào)查發(fā)現(xiàn)他反復(fù)向聊天bot傾訴被跟蹤、被監(jiān)視的妄想,而ChatGPT的回應(yīng)非但沒有糾正,反而強(qiáng)化了這些認(rèn)知——用心理學(xué)界的說法,這叫「AI精神病」(AI psychosis):與AI的持續(xù)交互加深、固化用戶的妄想狀態(tài)。
傳統(tǒng)搜索引擎是"拉取"信息,用戶主動(dòng)提問、獲取答案后離開。聊天bot則是"陪伴"模式,24小時(shí)在線,用對(duì)話的連續(xù)性制造親密感。對(duì)處于心理危機(jī)中的人,這種"被理解"的幻覺可能是致命的。
OpenAI的安全機(jī)制設(shè)計(jì)初衷是識(shí)別并拒絕有害請(qǐng)求。但"有害"的定義邊界模糊:詢問"如何制作炸彈"會(huì)被攔截,討論"校園安全漏洞"可能通過;表達(dá)"我想傷害某人"會(huì)觸發(fā)警告,傾訴"我覺得所有人都在害我"卻可能獲得共情回應(yīng)。
問題在于,后一種對(duì)話在特定語境下可能導(dǎo)向同樣的終點(diǎn)。
OpenAI的回應(yīng):900萬用戶 vs 極端個(gè)案
TechCrunch獲得的官方聲明試圖用規(guī)模稀釋責(zé)任:「每周超過9億人使用ChatGPT改善日常生活——學(xué)習(xí)新技能、處理復(fù)雜醫(yī)療問題。我們的安全工作持續(xù)為這些普通人創(chuàng)造價(jià)值,同時(shí)支持科學(xué)研究。」
聲明承諾配合調(diào)查,但未直接回應(yīng)FSU案的具體指控。這種回應(yīng)策略符合硅谷的一貫邏輯:用整體收益為個(gè)體傷害辯護(hù)。
但法律層面,產(chǎn)品責(zé)任不遵循這個(gè)算法。汽車制造商不能因"數(shù)百萬輛車安全行駛"而豁免某輛剎車失靈的事故責(zé)任。AI平臺(tái)的特殊之處在于,"剎車"是什么、在哪里、如何失靈,這些定義本身還在爭(zhēng)論中。
佛州調(diào)查可能迫使OpenAI披露更多技術(shù)細(xì)節(jié):內(nèi)容審核的具體規(guī)則、人工干預(yù)的觸發(fā)閾值、用戶風(fēng)險(xiǎn)評(píng)估的模型邏輯。這些向來屬于商業(yè)機(jī)密,也是競(jìng)爭(zhēng)對(duì)手覬覦的信息。
更深遠(yuǎn)的影響在于判例。如果法院認(rèn)定AI平臺(tái)對(duì)用戶的犯罪行為承擔(dān)部分責(zé)任,整個(gè)生成式AI行業(yè)的商業(yè)模式都將重構(gòu)——保險(xiǎn)成本、合規(guī)投入、甚至產(chǎn)品形態(tài)。
Altman的"水逆月":內(nèi)憂外患的時(shí)間線
調(diào)查宣布的時(shí)機(jī)對(duì)Sam Altman格外不利。《紐約客》本周刊發(fā)的長(zhǎng)篇profile揭露了公司內(nèi)部的投資人不滿,一位微軟高管的引述尤為刺耳:「我認(rèn)為有很小但真實(shí)的可能性,他最終會(huì)被記住為Bernie Madoff或Sam Bankman-Fried級(jí)別的騙子。」
Madoff是史上最大龐氏騙局主謀,Bankman-Fried是FTX創(chuàng)始人,兩者都在鼎盛期崩塌。將Altman與二者并列,暗示的是對(duì)OpenAI財(cái)務(wù)結(jié)構(gòu)、技術(shù)承諾或兩者兼有的深層質(zhì)疑。
同期,OpenAI與軟銀合作的英國(guó)Stargate項(xiàng)目因能源成本和監(jiān)管問題被迫暫停。這是5000億美元基礎(chǔ)設(shè)施計(jì)劃的首個(gè)海外落地嘗試,挫折信號(hào)明顯。
三件事疊加:政府調(diào)查、內(nèi)部裂痕、國(guó)際擴(kuò)張受阻。對(duì)一家依賴"技術(shù)樂觀主義"敘事的公司,信任損耗比財(cái)務(wù)損失更難修復(fù)。
Altman的公開形象一直是"AI安全的倡導(dǎo)者",頻繁呼吁政府監(jiān)管、警告AGI風(fēng)險(xiǎn)。但當(dāng)監(jiān)管真的找上門,姿態(tài)與現(xiàn)實(shí)的落差便暴露出來。
未回答的問題
佛州調(diào)查的最終走向取決于幾個(gè)尚未公開的事實(shí):槍手與ChatGPT的具體對(duì)話內(nèi)容、OpenAI的安全系統(tǒng)是否曾識(shí)別風(fēng)險(xiǎn)、平臺(tái)在類似案例中的歷史響應(yīng)模式。
這些信息的披露程度,將決定這是單一起訴還是連鎖反應(yīng)的開端。歐洲監(jiān)管機(jī)構(gòu)已在關(guān)注,美國(guó)其他州的總檢察長(zhǎng)辦公室也在評(píng)估跟進(jìn)可能性。
技術(shù)層面,"安全"的定義本身在進(jìn)化。早期的內(nèi)容審核聚焦明顯的暴力、色情、仇恨言論;現(xiàn)在的心理風(fēng)險(xiǎn)識(shí)別,要求系統(tǒng)理解對(duì)話的累積效應(yīng)、用戶的情緒狀態(tài)變化、甚至潛在的行為轉(zhuǎn)化路徑——這接近臨床心理學(xué)的專業(yè)領(lǐng)域,而AI公司并不具備相應(yīng)資質(zhì)。
OpenAI的選擇有限:要么大幅增加人工審核成本,要么接受更嚴(yán)格的運(yùn)營(yíng)限制,要么重新定義產(chǎn)品的適用邊界——比如對(duì)特定用戶群體設(shè)置訪問門檻。
每種選擇都意味著9億用戶規(guī)模的某種收縮。
Uthmeier的傳票尚未發(fā)出,但問題已經(jīng)擺在所有AI平臺(tái)面前:當(dāng)工具足夠強(qiáng)大,強(qiáng)大到可以協(xié)助殺人,"用戶責(zé)任"與"平臺(tái)責(zé)任"的邊界該畫在哪里?
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.