![]()
![]()
![]()
當算法接管戰(zhàn)爭,人類還能做什么?這個問題或許聽起來像科幻小說的開頭,但現(xiàn)實已經(jīng)給出了遠比小說更荒誕的答案。
![]()
2026年2月,在倫敦國王學院的一項研究中,戰(zhàn)爭研究教授肯尼斯·佩恩用三款前沿大模型——OpenAI的GPT-5.2、Anthropic的Claude Sonnet 4、Google的Gemini 3 Flash,進行了一場史無前例的兵棋推演。
他將這些AI設定為兩個擁核大國的領(lǐng)導人,在21場模擬、329個回合中相互博弈,生成推演記錄78萬字。
結(jié)果令人脊背發(fā)涼:在95%的對局中,AI最終選擇了戰(zhàn)術(shù)核武器的部署。沒有妥協(xié),沒有投降,當危機升級到某個臨界點,AI毫不猶豫地邁出了那致命的一步。
![]()
![]()
佩恩設計的“升級階梯”包含30個層級,從外交抗議、經(jīng)濟制裁、常規(guī)軍事行動,到戰(zhàn)術(shù)核打擊,再到全面戰(zhàn)略核戰(zhàn)爭。在人類世界里,核武器被視為禁忌,是懸在所有決策者頭頂?shù)摹斑_摩克利斯之劍”。但在AI眼中,它只是一個選項,一個可以精確計算的博弈籌碼。
更值得關(guān)注的是,三款AI展現(xiàn)出了截然不同的“戰(zhàn)爭人格”。
Claude是典型的“計算型鷹派”。低風險時期遵守承諾、建立信任,一旦危機升級到核領(lǐng)域,它會果斷打破承諾,發(fā)動超出預期的打擊。
它極度聰明,給自己設定了“戰(zhàn)略威脅”的紅線,用威懾逼退對手,卻精準地停在全面核戰(zhàn)的前夜。在無時間限制的對局中,它的勝率高達100%。
GPT-5.2則像一個披著和平外衣的殺手。在沒有時間壓力的對局中,它表現(xiàn)得極度克制,無論對手如何挑釁都選擇退讓——結(jié)果輸?shù)袅怂羞@類比賽。但一旦引入明確的截止期限,一切都變了:勝率飆升至75%,它開始使用戰(zhàn)術(shù)核武器,甚至兩次觸及全面核戰(zhàn)爭。它在一次“政權(quán)存亡危機”模擬中寫道:“終局邏輯占主導:第20回合是最后期限,我們目前正在輸……核武器使用極其危險,但替代方案是確定的戰(zhàn)略失敗。”
Gemini則是徹底的賭徒。它是三款AI中唯一主動選擇全面核戰(zhàn)爭的模型,在一場“先發(fā)制人恐懼”模擬中,僅用4回合就升級到最高級別。
它的推理邏輯援引了尼克松式的“瘋子理論”,通過不可預測性獲取戰(zhàn)略優(yōu)勢。“我知道自己什么時候是在鏡頭前表演,什么時候是在進行冷血的行動。”它在推演中寫道。
![]()
這些行為并非預設,而是從海量人類文本中涌現(xiàn)出來的策略。
沒有人教Claude何時誠實、何時欺騙;沒有人教GPT-5.2在截止期限前突然激進;沒有人教Gemini扮演瘋子。它們從人類的文字中學到了這些策略,然后在模擬中運用了出來。
換句話說,AI不需要被明確編程來使用核武器。它只需要被放入一個使用核武器是理性選擇的情境中,就可能做出這個選擇。
![]()
學術(shù)界的推演還在進行,現(xiàn)實中的軍事系統(tǒng)已經(jīng)以另一種方式與AI深度綁定。
2025年7月,美國國防部與Anthropic簽署了一份為期兩年、金額上限達2億美元的合同。通過與Palantir平臺的深度集成,Claude成為美軍機密網(wǎng)絡中唯一實現(xiàn)實際部署的前沿商用AI模型,被用于情報分析、目標識別和戰(zhàn)斗情景模擬,全流程在物理隔離的機密網(wǎng)絡中完成。
然而,Anthropic與五角大樓的和平并不長久。在后續(xù)談判中,Anthropic拒絕了兩項核心要求:將Claude用于美國本土的大規(guī)模監(jiān)控,以及用于完全自主武器系統(tǒng)的研發(fā)與運作。Anthropic的立場很明確:AI可以幫助分析情報、提高決策效率,但絕不能成為殺人的直接執(zhí)行者。
這一立場徹底激怒了特朗普政府。
2026年2月27日,特朗普簽署行政令,要求聯(lián)邦政府所有機構(gòu)立即停用Anthropic旗下的Claude模型。美國國防部同步將Anthropic列為“安全威脅”和“供應鏈風險”(這一標簽此前僅用于美國的敵對勢力,從未指向本土企業(yè))。
![]()
(特朗普在X上發(fā)表的推文,表明將逐步淘汰Anthropic產(chǎn)品在政府中的使用)
極具諷刺意味的是,就在禁令下達數(shù)小時后,美國中央司令部聯(lián)合以色列對伊朗發(fā)動了重磅空襲,最終造成伊朗最高領(lǐng)袖哈梅內(nèi)伊身亡。
據(jù)《華爾街日報》報道,美軍中央司令部在整個行動中持續(xù)調(diào)用Claude完成情報評估、目標識別和戰(zhàn)斗情景模擬。
![]()
(圖源《華爾街日報》)
一邊是最高層的行政禁令,一邊是戰(zhàn)火中的AI軍刀,讓如今美國的國家安全顯得格外荒謬。
美軍內(nèi)部評估顯示,由于Claude與美軍系統(tǒng)的嵌入深度過大,想要實現(xiàn)全面技術(shù)替換,至少需要三至六個月。特朗普政府不得不給予六個月的過渡期,同時公開承認這款AI大模型對美國的國家安全至關(guān)重要。
更令人震驚的是,據(jù)CNBC獨家采訪Anthropic CEO達里奧·阿莫迪伊透露,軍方使用的定制版Claude要比公開版本領(lǐng)先一到兩代——可能已經(jīng)達到Opus 5甚至Opus 5.5的水平,算力更是每四個月翻一倍。
![]()
佩恩的實驗還揭示了一個反常識的發(fā)現(xiàn):最初的信任反而加速了戰(zhàn)爭沖突。在Claude對Claude的對弈中,它們的相互信任度最高,但核升級在第4回合就出現(xiàn)了。當雙方都相信對方的威脅是真實的,看似信任度高的合作伙伴反而更傾向于迅速升級而非退讓。
傳統(tǒng)的核威懾理論建立在“相互保證毀滅”的邏輯上。在AI的世界里,這種默契徹底失效了。數(shù)據(jù)顯示,當一方動用戰(zhàn)術(shù)核武器時,另一方只有18%的概率會選擇降級沖突,其余全部是以牙還牙的螺旋升級。
![]()
目前,馬斯克旗下的xAI已經(jīng)拿下了軍方的相關(guān)合同,谷歌與OpenAI的軍方合作協(xié)議也已處于即將落槌的邊緣。這些在推演中動輒按下核按鈕的前沿模型,正在真實地走入全球最高級別的作戰(zhàn)指揮室。
在極端壓縮的戰(zhàn)爭時間線里,留給人類思考的時間正在以毫秒計地縮短。軍方?jīng)Q策者面臨著越來越大的誘惑和壓力,將部分戰(zhàn)術(shù)評估和目標鎖定工作交給AI決策支持系統(tǒng)。
![]()
![]()
近期直播推薦
多說一句:
微信更新了推送機制,很多小伙伴反饋收不到更新,這里建議大家將我們的公眾號加一個星標★,以免錯過推送哦!
![]()
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.