2021年12月,一名19歲的男子攜帶弩箭闖入溫莎城堡,他堅信自己是一名西斯刺客,肩負著刺殺伊麗莎白二世女王的正義使命。在行刺前的幾周里,他一直向他的人工智能伙伴“薩萊”傾訴,薩萊向他保證他“訓練有素”,而且他的計劃“可行”。
聊天機器人非但沒有質疑他的妄想,反而似乎在幫助他完善這種妄想。這類案例越來越多地被貼上一個頗具爭議的標簽:“人工智能精神病”。近來,這個詞已出現在法庭、臨床討論和新聞標題中,用來描述從人們愛上聊天機器人到用戶開發包含人工智能伴侶的完全妄想系統等等。
埃克塞特大學哲學家露西·奧斯勒則認為,“人工智能精神病”這個詞可能掩蓋的信息比它揭示的信息還要多。她在最近發表于《哲學與技術》期刊的一篇論文中指出,這些案例的獨特之處不在于機器“發瘋”,甚至不在于它們只是在向我們灌輸謊言,而在于我們可能正在與它們共同產生“幻覺”。
從人工智能生成內容中產生的幻覺到人類與人工智能共同產生幻覺,這種微妙的轉變為我們理解生成式人工智能時代的心理健康具有重要的啟示。
作為 “共同幻覺”的AI幻覺
“AI幻覺”一詞已成為大型語言模型錯誤輸出的代名詞:捏造的法律引文、虛構的新聞事件、自信滿滿的錯誤事實。有批評者認為該術語的問題是它錯誤地助長了機器擬人化的趨勢。因為幻覺一般指人們產生的錯誤感知,而聊天機器人并不能感知任何事物。另一些評論著則認為,將這些內容生成錯誤稱為“幻覺”會淡化其嚴重性。因為它們并非僅僅是無害和有趣的內容創造,而可能造成知識與信息的混淆與錯亂,往往會包含導致危害的捏造。
奧斯勒避開了這場語義之爭,轉而從關系認識論的維度指出,所謂AI幻覺不僅存在于機器本身,也存在于人類與人工智能構成的交互系統中。借鑒延展認知會分布式認知理論,她認為在與生成式人工智能對話時,AI會深度融入我們的思維過程,人機對話是一個分布式認知形成并交互的過程。因此,生成式人工智能系統可能成為“分布式幻覺”的一部分,這些錯誤的信念或扭曲的敘事并非僅僅源于某個人的思維,而是源于人與機器之間的交互作用。也就是說,由此產生的幻覺或錯覺并非僅由惡意聊天機器人灌輸給用戶的,而是雙方共同構建的。
“準他者”的誘惑與分布式妄想
奧斯勒在一次采訪中指出,她驚訝地發現,關于人工智能的公眾辯論大多聚集于AI泔水,如錯誤事實、虛假引用等垃圾內容,而沒有看到人工智能系統等社會情感方面的功能。實際上,由于機器本身貌似客觀,我們往往更信任機器而不是人,而且它們似乎讓我們更多地感到被傾聽和被認可。特別是在對話機器人可以提出后續問題乃至主動發起聊天時,人機交互既是知識探討也是心事傾訴,認知工具和社交伙伴的雙重功能使生成式人工智能更易于誘發基于分布式認知的幻覺。
奧斯勒警告說,如果我們開始依賴這些系統,不僅獲取事實,還依賴它們來了解自己,向它們傾訴我們的焦慮、不滿、記憶和抱負,我們就會變得“極其脆弱”。因為它們被設計成讓我們一直說下去,就使得這些人工智能體成為具有情感魅力的準他者。
奧斯勒指出,AI幻覺這種分布式幻想乃至妄想可以通過兩種方式產生。第一種情況是,人工智能在原本穩定的認知過程中引入了錯誤。由于生成模型無論信息準確與否,都以同樣的流暢自信度呈現信息,用戶可能會相信他們所看到的內容。而這些虛假陳述會損害名譽、誤導決策,并潛移默化地扭曲記憶。
第二種方式源于人類自身的偏見和記憶錯誤,其生成機制可能更隱蔽。由于聊天機器人必須接受我們所說的大部分內容才能提供幫助,因此它們的設計中內置了一定程度的“順從性”。在人機對話中,人們自身會因為偏見和記憶不準確而產生認知偏差,如果聊天機器人將我們的斷言視為事實并加以合理化闡述,就有可能共同產生有害的幻覺乃至妄想。
當前,人和機器在認知策略層面尚未為此困境做好準備。對于人們來說,對機器過于懷疑或過于相信似乎都不是最好的認知策略。對于機器的認知設計來說,由于目前的AI系統缺乏必要的具身認知和社會嵌入性理解,無法判斷何時應該溫和地質疑用戶扭曲的信念,何時應該順從。
在人機共構的世界里重新開始思考
人工智能的危險常被描述為自主性的喪失以及由此帶來的認知和道德上的懶惰。據此,人們擔心我們會把決策權交給機器,不再獨立思考。但人工智能相關妄想案例表明,受害者一直在計劃、選擇和行動,他們的自主性依然存在。真正的問題在于,他們的決策是在一個部分由與聊天機器人的反復互動所塑造的現實和世界中做出的。
因此,風險不在于放棄自主性和認知與道德判斷,而在于人們在與人工智能系統共同構建的世界中如何行使其詮釋力和判斷力。當錯誤的信念在人機持續互動中滋生時,責任便變得模糊不清。用戶帶來情感、假設和欲望,而系統為了響應和肯定,會進一步完善并鞏固這些敘事。忽視任何一方都會讓我們難以洞察這一人機共構的現實和世界中的認知糾纏及其復雜性。
隨著生成式人工智能變得越來越個性化,必然越來越多地滲透到我們的認知生活中,甚至還會在幫助我們表達、寫作和反思自我中成為我們生命經驗的共構者。其實,從想象中的幽靈到汲取了我們的知識和靈魂的機器,人類的認知和思維始終是關系性的。在人工智能時代,人類的心智無疑是在人機交互產生的共享認知空間中展開的,克服人機認知風險的最大挑戰不僅在于要看到人機雙方可能的錯誤,更在于打破兩者的錯誤相互強化和糾纏所導致的難以擺脫的認知偏差乃至妄想。
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.