![]()
美國和以色列軍方在打擊伊朗的作戰(zhàn)行動中,使用人工智能(AI)進行快速篩選和確認攻擊目標,這前所未有地提升了情報處理和作戰(zhàn)效率,據(jù)稱美國在戰(zhàn)爭爆發(fā)后的24小時內(nèi)就攻擊了1000個目標。這意味著未來在軍事領(lǐng)域運用AI的趨勢已勢不可擋,但同時也引發(fā)人們在安全性和不可控方面的明顯擔(dān)憂。
美軍被指在本次打擊中主要使用的是由數(shù)據(jù)分析巨頭Palantir開發(fā)的Maven智能系統(tǒng),借助AI分析數(shù)據(jù),以識別目標并排序優(yōu)先級。他們還將Anthropic開發(fā)的生成式AI大模型Claude集成到這個系統(tǒng),用于處理和匯總前線情報并生成目標,共同構(gòu)成一個針對伊朗行動的實時數(shù)據(jù)分析平臺。
據(jù)稱這個平臺在策劃對伊朗的打擊行動時,生成了包含上千個選項的潛在目標數(shù)據(jù)庫,并根據(jù)戰(zhàn)略重要性對目標進行優(yōu)先級排序。平臺還將特定的軍事單位和最合適的彈藥,與具體打擊目標自動匹配。它還能模擬戰(zhàn)術(shù)場景、評估打擊的合法性及協(xié)助進行戰(zhàn)損評估。
美媒稱五角大樓于2017年啟動了“Maven計劃”,一份備忘錄詳細闡述了這一計劃的理念:創(chuàng)建計算機視覺算法,用于分析無人機視頻、檢測目標,并將海量數(shù)據(jù)快速轉(zhuǎn)化為“可操作的情報和洞察力”。但他們的目標還不止于此,美軍還在努力將AI直接應(yīng)用于其“單向攻擊無人機”,使其即使在無線通信中斷的情況下也能導(dǎo)航、定位目標并執(zhí)行致命攻擊。
![]()
在軍事科技領(lǐng)域表現(xiàn)不俗的以色列也使用了AI,美國《華盛頓郵報》在最新報道中透露,以色列在作戰(zhàn)中利用新型人工智能平臺,提取有關(guān)伊朗領(lǐng)導(dǎo)人生活和行蹤的線索。根據(jù)以色列官員的描述,以色列對某些指揮官的情報非常精準,甚至能夠根據(jù)目標的移動情況在導(dǎo)彈飛行途中改變方向。
據(jù)稱以色列在加沙戰(zhàn)爭中使用了多個AI系統(tǒng)生成打擊目標建議,一個名為“福音”的系統(tǒng)負責(zé)識別并建議攻擊哈馬斯人員可能活動的建筑和設(shè)施,另一個叫做“薰衣草”的系統(tǒng)則被編程用于識別哈馬斯及其他武裝組織的疑似成員,以供定點清除。而還有一個被稱為“爸爸在哪”的系統(tǒng)通過追蹤目標的手機信號來監(jiān)視其行蹤,以便鎖定打擊窗口。
顯然,將AI應(yīng)用到軍事領(lǐng)域的好處不少。有媒體這樣描述,它擅長高速處理龐大數(shù)據(jù),大幅縮短“殺傷鏈”(Kill Chain),即把發(fā)現(xiàn)目標、人類審批到執(zhí)行打擊的整個決策和規(guī)劃流程,從過去的幾小時或幾天,極大地壓縮到幾分鐘甚至幾秒鐘。這不僅提高效率,也減少人力,把過去可能需要2000名分析師才能完成的工作量縮減至約20人,讓人類可專注于更高層級的決策、后勤保障和任務(wù)規(guī)劃上。AI也已部署在用于偵察和打擊任務(wù)的無人機、處理爆炸物的地面機器人等,由機器來執(zhí)行危險任務(wù),進而提升士兵的安全。
![]()
這意味著未來AI在軍事領(lǐng)域的運用趨勢已勢不可擋,但同時也引發(fā)人們在安全性和不可控方面的明顯擔(dān)憂。例如,五角大樓要求Anthropic簽署合同,允許軍方“不受限制”地將其技術(shù)用于“所有合法用途”,但這家公司堅持合同須列明兩個例外情況,即不得對美國公民進行大規(guī)模監(jiān)控,也不得開發(fā)完全自主且無人監(jiān)管的武器。但這遭到白宮的強烈反對,美國總統(tǒng)特朗普指示所有聯(lián)邦機構(gòu)立即停止使用Anthropic技術(shù),而戰(zhàn)爭部長赫格塞思則要求將Anthropic及其產(chǎn)品,列入對國家安全構(gòu)成威脅的“供應(yīng)鏈風(fēng)險”名單。
不過,在Anthropic對五角大樓提起訴訟后,一名聯(lián)邦法官暫停了美國軍方的決定,這暫時緩解了這家公司與美國政府合作的困境,其對人工智能在戰(zhàn)爭中的應(yīng)用也具有重要意義。但這并不能阻止這家公司擔(dān)心的事情可能發(fā)生,五角大樓很快就與其競爭對手OpenAI達成了協(xié)議。
![]()
現(xiàn)在人們有必要搞清楚,人工智能在軍事領(lǐng)域的大量應(yīng)用將帶來哪些風(fēng)險。眾所周知,AI本質(zhì)上依賴數(shù)據(jù)和算法,如果系統(tǒng)受到黑客攻擊或者數(shù)據(jù)篡改,敏感信息可能泄露,甚至被敵人利用來提供虛假情報。此外,使用過AI聊天的人都知道,大模型時常會產(chǎn)生錯誤,但在緊張的戰(zhàn)爭環(huán)境下,很可能導(dǎo)致指揮官迅速采納,這就是一些專家提到的“自動化偏見”,即默認AI提供的信息是準確可靠的,最終會打錯目標或者波及平民。
舉一個不夠恰當(dāng)?shù)睦樱晾誓喜啃W(xué)被襲擊造成至少175人死亡,據(jù)美國官員及了解初步調(diào)查結(jié)果的人士透露,因為美軍使用國防情報局提供的“過時數(shù)據(jù)”制定了打擊坐標。一些人質(zhì)疑這是否是美軍使用人工智能所導(dǎo)致的,美國在明面上只證實在調(diào)查,但并未給出更多信息,最終仍有待進一步澄清。
如果美軍果真使用AI生成的錯誤結(jié)果導(dǎo)致了誤判,這還會帶來另一個問題,即具體責(zé)任由誰來承擔(dān),到底是AI還是人類?有專業(yè)人士認為,人類歸根結(jié)底還是應(yīng)對人類的生命負責(zé)。即使人類使用工具來幫助了解局勢,也須親自核實這些工具的有效性;如果人類真的必須相互廝殺,那應(yīng)該由人類自己來執(zhí)行,而不是把責(zé)任推卸給機器。
而隨著AI在軍事領(lǐng)域深度應(yīng)用,不少人也開始擔(dān)憂人類可能失去對戰(zhàn)爭機器的控制。如以色列國防軍前總參謀長科哈維2023年接受采訪時曾提出類似觀點:“令人擔(dān)憂的不是機器人會控制我們,而是AI會在我們沒有意識到的情況下控制我們的思想并取代我們。”
這意味著各國需要在作戰(zhàn)效率和倫理責(zé)任之間尋求平衡,必須建立保障措施、法規(guī)和故障保護機制,以確保AI的使用是負責(zé)任的。很明顯,這將是一個巨大挑戰(zhàn)!
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.