![]()
算法本身是中立的,但用在戰場上,AI也能帶血。
都知道,美軍戰斧導彈轟炸了伊朗一所小學,導致165名7至12歲女童喪命。
![]()
最開始,特朗普是堅決否認的,后面藏不住了,才爆出來說是用了過期的情報,誤以為小學是伊朗海軍基地的建筑。
但最近美國獨立撰稿人爆出來,其實,不是情報問題,是美軍在伊朗戰場上使用AI幫助確定轟炸目標,AI出幻覺了,把10年前就已經和海軍基地隔開的小學繼續當成目標,而人工沒有復查……這事兒傳的沸沸揚揚,馬斯克也轉發了。
![]()
大模型殺人?聽上去很荒誕,但在美軍的算法戰體系下,真有可能發生。
這次風口浪尖上的,是Anthropic旗下的Claude。
Anthropic這家公司國內報道的不算多,由OpenAI前高管創立的公司,后面因經營理念不合而帶隊叛逃,結果走上了比OpenAI更徹底的賣身之路。
具體來說,這是最早在美國政府涉密網絡部署的AI大模型公司。
2025年,就從美國國防部拿到了一個2億美元的訂單,專門給美國軍事力量定制AI能力。
![]()
當然,美國人把AI用到軍事上,也不是新鮮事了。
![]()
你看,效率的確是提高了,但當科技失去了人性的溫溫度,就淪為了美國軍事霸權的權杖。
不光是美國人弄,這次和美國聯手打伊朗的以色列,也很早就開始用AI了。
以色列人取得項目名更好聽,叫薰衣草。
這套AI系統干嘛的,我一說各位大佬就懂,就是分析230萬加沙居民的畫像,給他們打分,看有多大概率是恐怖分子。
![]()
2023年以色列和哈馬斯打起來以后,幾個星期,就靠這套AI系統鎖定了三萬多巴勒斯坦人,說他們是恐怖分子,并且按照AI生產的名單來確定暗殺目標。
離譜的來了。
薰衣草系統,有90%的準確率。
但反過來說,就有10%的錯誤率。
以色列人那是不管這些的,人類軍官就是花20秒看一看,是不是男性啊,是不是看上去就有點危險啊,然后就授權轟炸了。
這些事情爆出來了以后,以色列居然還有話說,說是以色列軍隊內部有個默認,只要能殺死一名哈馬斯,附帶不超15名平民的傷亡,都是可以的。
所以反而覺得,用薰衣草,錯誤率才10%,那都是給平民面子了。
感受到用AI殺人的問題了沒有?一切都數字化,對生命是非常的漠視。
![]()
但隨著具有推理能力的大模型出現,AI開始介入軍事決策了,也就是開始做決定了。
Anthropic發布的Claude4系列,號稱能持續工作數小時,完成數千個步驟。這種強大的能力,如果缺乏有效的監管與道德約束,后果不堪設想。
其實伊朗學校被襲擊之前,Anthropic曾經試圖禁止AI用來控制自動武器,結果被美國政府拒絕了。
以至于,特朗普下令,以后不再和Anthropic合作,現在還在用的政府機構,要在未來6個月停止。
但沒了Anthropic,還有其他的大模型,美國政府立馬銜接了Anthropic的老牌競爭對手OpenAI。
反正不用這家,就用那家,總歸是美國軍隊不能沒有AI。
當然,Anthropic雖然和特朗普鬧掰,但按《華盛頓郵報》的說法,伊朗戰場上還是在使用Claude。
至于美國到底為什么打伊朗小學,到底是情報過期,還是AI誤判,可能要等到戰爭結束之后,才會解密。
不過現在爆出來的這些信息說明,AI真的是被用在殺人上了。
那165名女童的生命,也許就只是AI模型在處理海量情報數據時的一個錯誤分類,小bug,大傷亡。
在追求高效和國家安全的道德旗幟下,美軍開始用冷酷的算法,剝奪平民的聲明。
這事兒其實蠻恐怖的。
以前我們看到的不少科幻電影里面都有類似的場景,沒想到這么快,就實現了。
而那些科幻片,都不是歡樂幸福的,全都是讓人后背發涼的。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.