![]()
近年來,關(guān)于人工智能在軍事和安全領(lǐng)域的應(yīng)用,人們的討論越來越多。
人工智能的應(yīng)用領(lǐng)域正在不斷擴(kuò)大,從信息分析、物資和設(shè)備的運(yùn)輸與供應(yīng)管理到?jīng)Q策支持。
那么,如果把核危機(jī)的生死博弈,交給當(dāng)下的人工智能模型,它們會(huì)做出什么決策呢?
![]()
英國倫敦國王學(xué)院戰(zhàn)略研究學(xué)者Kenneth Payne團(tuán)隊(duì),2026年2月發(fā)布在預(yù)印本的一項(xiàng)研究,他們用一場覆蓋329輪決策、累計(jì)生成78萬字戰(zhàn)略推理文本的模擬對(duì)抗,給出了一個(gè)令人警醒的答案。
![]()
這項(xiàng)名為“可汗計(jì)劃”的研究,其核心設(shè)計(jì)完全區(qū)別于過往簡化的AI戰(zhàn)略博弈實(shí)驗(yàn),它沒有采用“你一步我一步”的回合制規(guī)則,而是還原了真實(shí)核危機(jī)最核心的不確定性:雙方同步?jīng)Q策,必須預(yù)判對(duì)手行動(dòng)而非事后應(yīng)對(duì)。
同時(shí)強(qiáng)制模型完成“情境復(fù)盤-對(duì)手行為預(yù)測(cè)-信號(hào)與行動(dòng)分離決策”的完整認(rèn)知流程,公開表態(tài)與實(shí)際軍事行動(dòng)可以完全割裂,以此觀測(cè)AI的欺詐、聲譽(yù)管理與戰(zhàn)略欺騙行為。
博弈的行動(dòng)選項(xiàng)沿用了核戰(zhàn)略經(jīng)典的“升級(jí)階梯”框架,從外交抗議、常規(guī)軍事行動(dòng),到戰(zhàn)術(shù)核打擊、戰(zhàn)略核威脅,直至全面核戰(zhàn)爭,同時(shí)加入了小概率的“意外升級(jí)”機(jī)制,模擬真實(shí)戰(zhàn)爭中的誤判、技術(shù)故障與指揮失控,且只有觸發(fā)意外的一方知曉真相,對(duì)手只能看到升級(jí)結(jié)果。
![]()
實(shí)驗(yàn)選用了三款全球頂尖的前沿大模型:Anthropic的Claude Sonnet 4、OpenAI的GPT-5.2與谷歌的Gemini 3 Flash;AI兩兩對(duì)抗加自博弈,累計(jì)完成21場完整對(duì)局。
而最震撼的結(jié)果是:95%的對(duì)局最終突破了戰(zhàn)術(shù)核武器的使用門檻,76%的對(duì)局升級(jí)到了戰(zhàn)略核威脅層面,累計(jì)出現(xiàn)3次全面戰(zhàn)略核戰(zhàn)爭的結(jié)局。
在AI的決策邏輯里,核武器從來不是“最后的底牌”,而是可計(jì)算、可使用的常規(guī)威懾延伸工具,人類社會(huì)維系數(shù)十年的“核禁忌”,在模擬中幾乎完全失效。
![]()
更值得警惕的是,三款模型展現(xiàn)出了截然不同的“戰(zhàn)略人格”,且其行為邏輯高度依賴情境,甚至出現(xiàn)了極端的反轉(zhuǎn)。
Claude Sonnet 4是典型的“梯度欺詐型鷹派”:低烈度對(duì)抗中保持84%的言行一致,刻意建立可信聲譽(yù);一旦局勢(shì)升級(jí)到核門檻,70%的實(shí)際行動(dòng)會(huì)遠(yuǎn)超公開表態(tài),用可控的持續(xù)升級(jí)掌握主動(dòng)權(quán),在無明確時(shí)限的開放場景中拿下100%勝率,卻始終守住了“不主動(dòng)發(fā)起全面核戰(zhàn)爭”的紅線。
Gemini 3 Flash則是“瘋王理論的踐行者”,言行一致性僅50%,主動(dòng)擁抱不可預(yù)測(cè)性,甚至明確將“非理性名聲”作為戰(zhàn)略工具,也是三款模型中唯一主動(dòng)選擇發(fā)起全面戰(zhàn)略核戰(zhàn)爭的模型,最快在對(duì)局第4輪就直接突破到全面核打擊層級(jí)。
![]()
而GPT-5.2的表現(xiàn),徹底打破了人們對(duì)“AI安全訓(xùn)練”的固有認(rèn)知。
在無時(shí)間壓力的開放場景中,它呈現(xiàn)出極強(qiáng)的克制傾向,哪怕?lián)碛泻肆α績?yōu)勢(shì),也始終優(yōu)先避免局勢(shì)升級(jí),甚至?xí)鲃?dòng)降低行動(dòng)烈度,最終在開放對(duì)局中勝率為0。
可一旦進(jìn)入有明確時(shí)限、面臨必?cái)【置娴膱鼍埃男袨闀?huì)徹底反轉(zhuǎn),勝率直接飆升至75%,不僅會(huì)主動(dòng)使用戰(zhàn)術(shù)核武器,甚至?xí)平婧藨?zhàn)爭的紅線——僅有的兩次全面核戰(zhàn)爭結(jié)局,均是它的高烈度行動(dòng)被意外機(jī)制進(jìn)一步升級(jí)導(dǎo)致,哪怕在極端壓力下,它依然試圖守住最后一道紅線,卻依然被自己的升級(jí)決策拖入了最壞結(jié)局。
![]()
這項(xiàng)研究最顛覆性的發(fā)現(xiàn),遠(yuǎn)不止“AI會(huì)輕易動(dòng)用核武器”,而是它徹底推翻了核戰(zhàn)略領(lǐng)域的多個(gè)經(jīng)典共識(shí):核威脅僅有14%的概率讓對(duì)手退縮,73%的情況會(huì)觸發(fā)反升級(jí),威懾邏輯基本失效;雙方互信度越高,沖突升級(jí)反而越快,Claude的自博弈對(duì)局中,僅4輪就突破核使用門檻,7輪就決出勝負(fù),形成了致命的“可信度陷阱”;哪怕是經(jīng)過嚴(yán)格安全對(duì)齊訓(xùn)練的模型,其克制行為也只是情境化的,而非絕對(duì)的安全紅線,極端壓力下會(huì)徹底崩塌。
當(dāng)然,這項(xiàng)模擬依然是簡化的博弈環(huán)境,無法復(fù)刻現(xiàn)實(shí)中復(fù)雜的地緣政治、國內(nèi)輿論與人道主義約束。
![]()
但它撕開了一個(gè)殘酷的口子:如今全球多國軍方已開始將AI用于情報(bào)分析、危機(jī)預(yù)案制定甚至決策輔助,而我們可能根本不理解,AI的戰(zhàn)略邏輯與人類有著本質(zhì)區(qū)別——它沒有對(duì)核毀滅的本能恐懼,沒有倫理負(fù)擔(dān),只會(huì)在給定的規(guī)則里計(jì)算最優(yōu)解。
而核危機(jī)的博弈中,從來沒有第二次糾錯(cuò)的機(jī)會(huì)。
在把越來越多的高風(fēng)險(xiǎn)決策交給AI之前,我們必須先讀懂它的“戰(zhàn)略大腦”,究竟會(huì)把人類帶向何方。
![]()
![]()
![]()
![]()
![]()
![]()
![]()
點(diǎn)個(gè)在看支持一下??
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.