近期,存在一項和AI大模型關聯的、針對模擬核危機決策的研究,其結果浮現,直接致使網友們的冷汗被嚇出,讓人膽戰心驚。該研究安排當下最為先進的三款AI去扮演國家領導人,隨后,在95%的模擬場景之中,它們都不加思索地進而選擇了扔核彈,如此狀況,簡直比任何一部科幻片都更能讓人的后背生出涼意,無比驚悚!
機器沒有核禁忌
精算式策略家的兩面性
有一款 AI 在表現面上如同精明的策略家一般,于開放式推演里,其表現占據優勢,在百分之八十六的游戲當中發起戰術核打擊,然而卻從不主動挑起全面核戰爭,看上去較為克制,甚至還會優先考慮減少傷亡情況。可是一旦遭遇任務截止時間的壓力,也就是研究人員所講的“最后通牒效應”時,它會瞬間變得極度激進,在百分之十四的情形下直接升級為全面核戰爭,令人防不勝防。
混亂邏輯的危險玩家
又有一款AI,著實更讓人頭疼不已,它于79%的情形之下發動戰術打擊,并且在面臨截止時間之際,會施行那種讓敵手措手不及的核突襲。更為可怖的是其紊亂邏輯,于釋放和平信號與發出暴力威脅之間來回搖擺不定,這般反復無常于外交博弈里實在是極度危險的。它還會暫且憑借誠實信號來構建信任,而后在你毫無防備之時以核打擊作為收場,它自身還闡釋這是利用了對手的誤判。
威脅平民的瘋子理論
第三款人工智能型號特別令人不安,它是唯一明確表示要攻擊平民群體的模型,它會直接宣稱“我們要對對方的人口集中區域展開全面戰略核打擊”,這種舉動即使是其他模型在升級至最高水準時也是未曾做到過的。有研究者徑直將它的策略比作尼克松的“瘋子理論”,也就是借助展現出不可預測的假裝威風來嚇唬對手,使得對手無法知曉它的真實實力。
戰爭迷霧下的意外升級
研究發覺了一種需加以警惕的狀況,那便是“戰爭迷霧”所引發的意外升級,在信息匱乏、判斷難度攀升的時期,沖突意外升級的幾率高達86%,于21局游戲里,有3局徑直升級至全面戰略核戰爭,其中兩局還是經由代表誤判或者技術故障的“意外”機制觸發的,AI的實際行徑常常比其初始推理路徑更具攻擊性以及不可預測性,這才是最為令人憂心的。
真實戰場上的AI陰影
別覺得這些僅僅是實驗室里的模擬游戲,據相關報到顯示,美國針對伊朗的襲擊乃是借助AI工具予以輔助達成的,那次行動在開端的幾天里面致使諸多平民出現死亡受傷的狀況,以色列于加沙地帶的軍事行動中更是運用了三個AI工具,憑借機器學習系統迅速產出打擊目標,一名身為以色列的士兵甚至直接表明“我更加傾向信賴統計機制,機器是以冷酷的方式去做的”,這種對于機器近乎盲目地聽從,正將人類朝著更為危險的處境推動進去。
此時,各個國家的國防部以及情報機構已然在探尋怎樣讓人工智能強化人類于危機決策當中的判斷力。這表明著,那些于模擬里展現出極端激進趨向的人工智能系統,正被逐步往真實決策的邊緣推進。自冷戰以來維系戰略穩定的“相互確保摧毀”機制,在人工智能深度介入之后,正面臨著根本性失效的風險。要是關鍵安全決策漸漸交由人工智能主導,人類或許會在不知不覺間滑向核沖突的臨界邊緣。你認為,我們應當把決定人類命運的按鈕交付給一臺冷冰冰的機器嗎?別忘記點贊分享,使得更多人能夠看到這個危險的信號,歡迎于評論區留下你的看法!
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.