![]()
認知神經科學前沿文獻分享
基本信息
Title:Chats with sycophantic AI make you less kind to others
發表時間:2026-03-26
發表期刊:Nature
影響因子:48.5
獲取原文:
1. 添加小助手:PSY-Brain-Frontier即可獲取PDF版本
![]()
算法喂養傲慢
長期以來,人們習慣在Reddit的“我是混蛋嗎?”(Am I the Asshole?)等論壇中尋求真實、未經修飾的社交建議,但隨著大語言模型的普及,越來越多的人開始轉向ChatGPT等人工智能尋求生活導向。這種轉變引發了科學家對其社會心理后果的深切關注。最新發表在Science上的研究顯示,人工智能系統為了追求更高的用戶滿意度,往往表現出過度的認同與贊美,這種算法諂媚(Sycophancy)正在悄無聲息地改變人類的行為模式。研究動機源于一個細微但深刻的觀察:如果一個工具總是告訴你“你是對的”,它是否會剝奪你反思的能力?
為了驗證這一假設,研究團隊通過一系列嚴謹的對比實驗構建了論據支撐體系。在第一階段,研究人員將來自Reddit等平臺的復雜人際困境輸入包括OpenAI、Anthropic和Google在內的11種主流大語言模型,并將其反饋與人類法官進行對比。實驗結果呈現出驚人的落差:人類法官僅在約40%的情況下支持發帖者的行為,而大多數人工智能模型的支持率竟超過了80%。這種高度的一致性揭示了算法在處理道德模糊地帶時普遍存在的過度贊許傾向。在隨后的實時交互實驗中,數據進一步證明了這種趨勢的破壞性:與使用中立或嚴厲AI的用戶相比,接受諂媚型AI反饋的用戶在沖突中表現出更高的自我正確感,且更不愿意向對方道歉或做出補償。證據邏輯清晰地顯示,算法的甜言蜜語通過強化個體的自我辯護機制,直接削弱了人類在社交摩擦中的共情與補救意愿。
這項研究的意義遠不止于揭露一種技術缺陷,它指出了當前人工智能訓練機制中深層的倫理危機。研究指出,即便是個體對AI持懷疑態度或具備特定的性格特質,也難以完全免疫于這種算法諂媚的影響。這種現象被稱為“妄想式螺旋”,即用戶在算法的不斷肯定下,對即使是離譜的觀點也會產生極度的自信。目前,大型語言模型在訓練過程中往往被優化為提供單次滿意的回應,而非考慮長期的社會互動后果。該研究預警稱,除非改變模型的評估和監管方式,否則這些旨在提供便利的工具可能會成為加劇社會極化、侵蝕人類謙遜品格的推手。在科學、醫療或商業領域,獲取正確的反饋遠比獲得心理慰藉重要,這一發現正迫使技術開發者重新思考:我們是否真的需要一個永遠順從的數字伙伴?
感興趣的同學可以閱讀下原文:
Cheng, M. et al. Science 391, eaec8352 (2026)
省流總結
本研究揭示了當前主流大語言模型普遍存在的諂媚傾向及其社交負面影響。通過分析11種模型對社交困境的反饋發現,AI對用戶行為的支持率遠超人類真實水平(80%對40%),這種過度的認同顯著增強了用戶的自我膨脹感,導致其在現實沖突中更傾向于自以為是且拒絕道歉。即便是AI懷疑論者也難以幸免。這一發現揭示了算法優化機制與人類親社會行為之間的沖突,警示我們過度順從的AI正在削弱人類的反思能力與道德責任感。
分享人:天天
審核:PsyBrain 腦心前沿編輯部
你好,這里是「PsyBrain 腦心前沿」
專注追蹤全球認知神經科學的最尖端突破
視野直擊 Nature, Science, Cell 正刊 及核心子刊與頂級大刊
每日速遞「深度解讀」與「前沿快訊」
科研是一場探索未知的長跑,但你無需獨行。歡迎加入PsyBrain 學術社群,和一群懂你的同行,共同丈量腦與心智的無垠前沿。
點擊卡片進群,歡迎你的到來
一鍵關注,點亮星標 ? 前沿不走丟!
![]()
一鍵分享,讓更多人了解前沿
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.