![]()
2026年2月27日(美東時間),美國總統特朗普在Truth Social上宣布,向所有聯邦政府機構下令:即刻停止使用Anthropic的一切技術。
國防部長皮特·赫格斯(Pete Hegseth)隨即把Anthropic列為「國家安全供應鏈風險」,并宣布所有與軍方有業務往來的承包商,即日起禁止與Anthropic合作。
這是美國政府對本土科技公司動用的最強硬手段之一。
起因,是Anthropic的一個拒絕——而且不是第一次。
一、事情是怎么開始的:2億美元合同埋下的伏筆
2025年7月14日,美國國防部(現改稱「國防戰爭部」)與Anthropic簽署了一份上限為2億美元的「原型過渡協議」,目標是在國家安全領域推進前沿AI能力。
Anthropic的Claude模型由此被實際部署在美國政府的涉密網絡上,用于情報分析、作戰規劃模擬、網絡作戰支援等任務。Anthropic自稱是硅谷主要AI公司中第一家把模型部署進涉密政府網絡的企業。
看起來是一樁雙贏生意:政府獲得前沿AI能力,Anthropic獲得政府合法性與收入。
但2026年1月,矛盾首次浮出水面。
國防部長赫格斯簽署了一份AI戰略備忘錄,要求所有國防部AI合同必須包含「任何合法用途」(Any Lawful Use)條款——承包商不得對軍方使用場景設置任何限制。
Anthropic的AI系統本身內嵌了若干使用限制。這份備忘錄,正面要求Anthropic拆除這些限制。
談判由此進入僵局。
二、Anthropic的兩條紅線:原則還是邊界
2026年2月26日,距國防部最后期限不足24小時,Anthropic CEO Dario Amodei在公司官網發布了一封約800字的公開信。
信中,他劃出了兩條Anthropic拒絕放開的使用限制:
紅線一:不得用于大規模監控美國公民。
Amodei寫道:「大規模的國內監控與民主價值觀根本不相容,會對我們的基本自由構成嚴重的、全新的風險。」
紅線二:不得用于完全自主決策的致命性武器。
Amodei的解釋是技術層面的:「前沿AI系統根本還不夠可靠,無法獨立運作致命性武器。在這類決策上讓AI系統擁有完全自主權,會讓作戰人員和平民都面臨不可接受的風險。」
這兩條限制,聽起來都有道理。
但五角大樓的反駁同樣不是沒有依據。
軍方的立場是:美國現行法律已經明確禁止針對本國公民的大規模監控;完全自主武器的使用,同樣受《武裝沖突法》約束。這些限制不需要由一家私營AI公司來單獨設定和執行。
換言之,政府的邏輯是:已有法律在管,不需要你來管。
而Anthropic的邏輯是:法律管不到的地方,我們先管。
這兩種立場,反映的是一個根本性的權力歸屬爭議:在AI被濫用的風險面前,誰是最后一道門?
三、五角大樓的反擊:威脅升級的三步棋
面對Anthropic的立場,國防部發出了強硬回應,設定2026年2月27日為最終期限,威脅逐級升級:
第一步:終止價值2億美元的國防合同。
第二步:將Anthropic列為「供應鏈風險」。這意味著Anthropic將被禁止參與所有聯邦政府和國防項目,且其技術被整合進Palantir、亞馬遜AWS等國防承包商業務的部分,也將面臨連鎖拆解。
第三步:援引《國防生產法》(Defense Production Act)——一部冷戰時期授權總統在國家安全緊急狀態下強制企業服從命令的法律。
Anthropic在公開信中不無諷刺地指出:「我們被告知,我們是構成國家安全風險的威脅——同時又被告知,我們的技術對于國家防御是不可或缺的。這兩件事,不可能同時為真。」
四、最后期限:各家的不同選擇
2026年2月27日,最后期限到來。Anthropic沒有妥協。
特朗普隨即在Truth Social上點名Anthropic為「激進左派AI公司」,下令全聯邦機構立即停用。赫格斯正式宣布供應鏈風險定級,現有合作方獲得6個月過渡期以切換供應商。
與此同時,其他AI公司做出了截然不同的選擇:
谷歌、xAI已接受了「任何合法用途」條款,配合軍方要求。
OpenAI走了第三條路:在Anthropic遭封禁的幾小時后,宣布與國防部達成新協議。OpenAI CEO Sam Altman表示,他們的協議以書面形式寫入了類似的安全原則——但同時他們拿到了合同。
這就產生了一個值得思考的問題:如果OpenAI能在書面上保留安全條款、同時接下政府生意,那Anthropic的「原則性拒絕」,究竟是更高的道德底線,還是一種談判策略的失敗?
沒有明確答案。但不同的市場選擇已經擺在那里。
五、Anthropic自己的權力問題:誰授權了這道門?
這場爭端最值得深思的部分,不是Anthropic輸了還是贏了,而是它所揭示的一個更根本的問題:
Anthropic憑什么決定,AI的使用邊界在哪里?
Anthropic對所有用戶設置同樣的限制,包括企業、政府、軍方。他們不給任何人后門。這是一種徹底的「一視同仁」。
但這種「一視同仁」,本身是否也是一種權力的行使?
在傳統的武器行業,槍械制造商不會對警察和軍隊的使用方式設置道德條件——那是法律和民主制度的工作。AI的特殊性在于:它的限制不嵌在硬件里,而嵌在代碼里。這讓AI公司天然成為「規則的制定者」,而這個角色,從來沒有經過任何民主程序的授權。
Anthropic的立場,可以被解讀為負責任:他們在試圖防止最壞的場景,哪怕為此付出商業代價。
它同樣可以被解讀為傲慢:一家私營科技公司,單方面決定什么是一個主權國家的軍隊可以做、什么不可以做。
這兩種解讀,都有充分的理由。
Amodei在公開信中承認了這個張力:「我們相信,是否以及如何使用Claude做出軍事決定,應由美國國防戰爭部而非我們來決定。但在某些極端情況下……我們認為,我們有必要劃出不可逾越的底線。」
「某些極端情況」——這個邊界,是Anthropic自己劃的。
寫在最后:一個沒有好答案的問題
Anthropic稱供應鏈風險定級「法律上站不住腳」,并宣布將以法律手段提出挑戰。理由是:此類工具歷史上僅用于應對華為等外國實體,從未被用于制裁本土企業。
這場法律角力,最終可能會為AI公司與政府之間的權力邊界寫下某種意義深遠的判例。
但在那之前,有幾個懸而未決的問題值得每個關注AI發展的人去思考:
AI公司設置「使用護欄」,是在保護用戶,還是在擴大自己對技術的控制權?
當政府與AI公司的標準出現沖突,誰的判斷應當優先?
如果Anthropic的做法是對的,那么接了合同的OpenAI意味著什么?如果OpenAI的做法是對的,那拒絕的Anthropic又意味著什么?
Anthropic用商業損失換了一個它認為重要的立場。或許它是對的。或許它高估了自己對這個邊界的判斷能力。
但無論如何,這場對決所暴露的矛盾,并不會隨著Anthropic的失敗而消失——它只是被推遲到了下一次,由另一家公司、在另一個政府面前重新上演。
核心事實速覽
合同金額:
2億美元上限,2025年7月14日簽署
合同內容:
情報分析、作戰規劃、網絡作戰支援(涉密網絡)
五角大樓訴求:
「任何合法用途」條款,移除所有使用限制
五角大樓立場:
現行法律已有約束,無需企業單獨設定
Anthropic紅線:
禁止大規模監控美國公民;禁止完全自主致命武器
最后期限:
2026年2月27日(星期五)
結果:
Anthropic拒絕 → 特朗普封禁令 → 供應鏈風險定級
過渡期:
現有機構獲6個月切換期
Anthropic回應:
稱定級「法律上站不住腳」,將提起法律挑戰
OpenAI動向:
同日與國防部達成協議,聲稱書面寫入安全條款
谷歌/xAI:
已接受「任何合法用途」條款
Dario Amodei聲明:
2026年2月26日,約800字,發布于Anthropic官網
參考資料:
Statement from Dario Amodei on our discussions with the Department of War, Anthropic (Feb 26, 2026) https://www.anthropic.com/news/statement-from-dario-amodei-on-our-discussions-with-the-department-of-war
Pentagon designates AI firm Anthropic a 'supply chain risk', Washington Post (Feb 27, 2026)
Anthropic refuses DOD demand for unrestricted AI access, Breaking Defense (Feb 27, 2026)
其他綜合來源:CBS News, The Guardian, PBS 等。
(注:本文根據以上英文資料綜合編譯,內容旨在呈現事件全貌,文中涉及的任何主觀判斷與結論均不代表硅星人官方立場。)
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.