文 | 超前實驗室,作者|青蘋吹果,編輯|無心插柳柳橙汁
2026開年,Anthropic的處境堪稱冰火兩重天,一半是海水,一半是火焰:
一邊,是被“公開處刑”:川普在怒斥它“想要不受約束的權力”,美國戰(zhàn)爭部長親自下場,給它貼上了“供應鏈風險”的標簽。另一邊,卻是真香現(xiàn)場:才被“點名”幾小時后,他家工具就悄咪咪出現(xiàn)在了美軍指揮部的機密系統(tǒng)里。
同一周,App Store免費榜榜首輕松拿下,Anthropic可以說拿到了爽文劇本。
這家由OpenAI前核心成員創(chuàng)立的公司,剛剛完成了一輪300億美元的融資,估值飆升至3800億美元,成為全球估值第二高的AI獨角獸,僅次于OpenAI的5000億美元。
更令人震驚的是,其年化收入已達到140億美元,過去三年每年增長超過10倍,被《華爾街日報》稱為“史上增長最快的企業(yè)軟件公司”。
在OpenAI統(tǒng)治消費者市場、谷歌憑借全棧能力重回牌桌的背景下,Anthropic憑什么殺出一條血路?它的崛起又揭示了AI產(chǎn)業(yè)怎樣的未來圖景?
和OpenAI割席, 道不同不相為謀
要了解Anthropic的崛起,必須先了解其創(chuàng)始人Dario Amodei。
這位1983年出生的物理學天才,2000年入選美國物理奧林匹克國家隊,在加州理工、斯坦福和普林斯頓完成學業(yè)后,于2014年加入百度,在吳恩達麾下從事大模型規(guī)模定律的早期研究。橫跨物理學、生物學和計算方法的學術訓練,使他對復雜系統(tǒng)的量化分析產(chǎn)生濃厚興趣,也為他日后在AI安全領域的研究奠定了基礎。
![]()
2016年,Amodei加入OpenAI并主管AI安全工作。接下來的五年里,他主導開發(fā)了GPT-2和GPT-3,并與團隊共同發(fā)明了“基于人類反饋的強化學習”(RLHF)技術——這項技術后來被所有主流大語言模型采用,成為確保AI系統(tǒng)與人類價值觀對齊的關鍵突破。
然而裂痕也在同期埋下。
2020年底,Dario Amodei帶著包括妹妹Daniela在內(nèi)的14名核心研究員集體出走。2021年2月,Anthropic創(chuàng)立。
出走的原因,Amodei在今年2月的一次播客訪談中坦言:他主張更審慎的發(fā)布節(jié)奏和更嚴格的安全測試,而OpenAI在微軟投資后加速商業(yè)化。“我們早在2022年就有一個早期版本的Claude 1,早于ChatGPT的發(fā)布,但我們選擇當時不公開發(fā)布,因為擔心會引發(fā)軍備競賽,沒有足夠時間安全地構建這些系統(tǒng)。”
這種對安全的執(zhí)著,深深烙印在Anthropic的基因里。
成立之初,Anthropic就設計了一套安全優(yōu)先的治理結構:
注冊為公共利益公司(PBC),必須同時平衡股東經(jīng)濟利益和明確的公共利益;設立長期利益信托,由獨立受托人監(jiān)督公司決策,確保不因短期商業(yè)壓力而犧牲AI安全。《時代》雜志2024年曾點評稱,OpenAI 2023年的治理危機恰恰驗證了Anthropic對新型治理結構必要性的判斷。
用產(chǎn)品力說話, Anthropic在市場“開掛”
如果說安全理念是Anthropic的“道”,那么產(chǎn)品策略就是他的“術”。
與OpenAI一開始就面向全球公眾發(fā)布ChatGPT不同,2023年3月Claude 1發(fā)布時僅面向經(jīng)審核的企業(yè)用戶。這一策略在當時看似保守,實則精準——Anthropic選擇了一條與OpenAI截然不同的道路:專注企業(yè)級市場,用產(chǎn)品力構建護城河。
Anthropic押注的是市場的幾個核心痛點:
首先是長上下文能力。 2023年5月,Claude將上下文支持能力從9K擴展到100K tokens,而同期GPT-4最高只有32K。2024年3月,Claude 3發(fā)布又全線支持200K,重新拉開與OpenAI的差距。
![]()
如今,二者的上下文能力都已達到1M tokens,但在2023年到2024年,長上下文能力是Anthropic在企業(yè)市場的核心賣點。正如Anthropic官方所言:“企業(yè)客戶有高達50%的知識庫以PDF、流程圖、演示文稿等形式存在,長上下文讓Claude可以一次性處理整個代碼庫、數(shù)百頁法律文檔或銷售記錄。”
其次是編程能力的突破。 2025年2月推出的Claude Code成為Anthropic最具殺傷力的產(chǎn)品。這是一款可直接在終端運行的AI編程工具,能夠讀取企業(yè)現(xiàn)有代碼庫、自主規(guī)劃并執(zhí)行任務,實現(xiàn)了從“代碼補全”到“AI委托完整任務”的進化。
截至2026年2月,Claude Code的年化收入已超過25億美元,自年初以來增長了一倍多,企業(yè)訂閱量增長了四倍。根據(jù)費用管理初創(chuàng)公司Ramp的數(shù)據(jù),Anthropic在今年1月的AI模型API支出市場中已占據(jù)主導地位,份額接近80%。
在AI開發(fā)者中,Anthropic在代碼市場的份額達到42%,而OpenAI為21%。就連微軟也在2025年9月表示,將把Claude模型整合到Copilot軟件套件中。
![]()
第三是產(chǎn)品矩陣的深化。 2024年推出的Artifacts和Projects,將Claude從“對話工具”轉變?yōu)椤皡f(xié)作工作區(qū)”,解決了“如何讓AI無縫融入現(xiàn)有工作流”的核心挑戰(zhàn)。
今年2月,Anthropic又發(fā)布了10款全新AI插件,覆蓋投行、財富管理、人力資源、私募股權、工程設計等多個垂直場景。
同日,公司宣布收購Vercept,一家脫胎于艾倫人工智能研究所的AI初創(chuàng)公司,主打“像人一樣看屏幕、操控電腦”的無API自動化,進一步補足自身視覺能力短板。
這一系列動作的效果已經(jīng)開始顯現(xiàn)。目前,Anthropic服務的企業(yè)客戶已超過30萬家。過去一年,年消費超過10萬美元的客戶數(shù)量增長了7倍,年消費超100萬美元的客戶已超過500家。
高盛近期宣布與Anthropic合作開發(fā)自動化銀行業(yè)務AI代理,進一步印證了其企業(yè)化路徑的有效性。
被卷入復雜博弈,Anthropic安全理想兩難
然而,Anthropic近期最引人注目的,不是它的增長,而是它在安全立場上的重大轉向以及與華盛頓的復雜博弈。
首先是安全承諾的軟化。 今年2月,Anthropic對2023年推出的《負責任擴展政策》做出大幅度修改。這份政策最核心的條款是:當模型迭代速度超過自身安全防護能力時,“暫停模型規(guī)模擴張或推遲新模型的發(fā)布”。而在新版本中,Anthropic不再承諾單邊暫停有風險的模型。
Anthropic首席科學家Jared Kaplan在接受《時代》采訪時坦言:“如果競爭對手都在全速前進,我們再做出單邊承諾,其實并不合理。停止訓練人工智能模型,實際上對任何人都沒有好處。”
這番話道出了AI行業(yè)的殘酷現(xiàn)實。根據(jù)最新財務預測,Anthropic預計2026年營收將達180億美元,2027年達550億美元。但與此同時,訓練成本也在飆升:2026年訓練支出預計超過120億美元,2027年接近230億美元。在業(yè)務結構上,Anthropic約80%的收入來自企業(yè)客戶,而OpenAI也在這個賽道飛速進步,積極推廣其AI編程工具并發(fā)布新版模型。拆除“安全護欄”,或許只是Anthropic開啟貼身肉搏的第一步。
其次是與美國政府的對峙。 就在軟化安全承諾的同時,五角大樓要求Anthropic移除Claude模型上的安全護欄,以便在“所有合法用途”中使用。Amodei明確拒絕,稱無法在良心上同意他們的要求,警告這將迫使公司跨越兩條紅線:大規(guī)模國內(nèi)監(jiān)控和完全自主武器。
“Anthropic是首個將模型部署到美國政府機密網(wǎng)絡、首個在國家級實驗室部署模型,以及首個為國家安全客戶提供定制模型的人工智能公司。”但Amodei強調(diào),國防部提出的“任何合法使用”的要求將迫使公司突破底線。
2月27日,特朗普在社交媒體上發(fā)文,指責Anthropic試圖用服務條款勒索五角大樓,下令所有聯(lián)邦機構立即停止使用Anthropic的技術。隨后,國防部長將其正式指定為“國家安全供應鏈風險”,這意味著任何與美軍有業(yè)務的承包商不得與Anthropic開展商業(yè)活動。
![]()
幾小時后,Sam Altman宣布OpenAI與國防部達成協(xié)議,允許其模型部署在軍方機密網(wǎng)絡中。Altman稱協(xié)議包含了“技術保障措施”和“紅線”限制,如不用于國內(nèi)大規(guī)模監(jiān)控和完全自主武器。
兩相比較,能看到兩家公司在AI安全上的不同策略:Anthropic主張在技術層面嵌入限制,而OpenAI更傾向于通過合同條款和政策框架來約束。這種態(tài)度差異呼應了Anthropic從OpenAI出走的原因——對安全及商業(yè)利益的不同排序,最終與兩家公司所服務的市場形成了相互強化的閉環(huán):OpenAI更重視toC,追求增長,而Anthropic追求安全和穩(wěn)定,最終走了toB路線。
資本市場瘋狂押注, Anthropic能否“不忘初心”?
與輿論場的爭議形成鮮明對比的,是資本市場對Anthropic的瘋狂追捧。
2月12日,Anthropic宣布完成G輪融資,金額300億美元,投后估值3800億美元。這一數(shù)字意味著什么?去年9月,公司剛以1830億美元的估值完成130億美元融資,短短半年內(nèi)估值翻倍。
從融資結構來看,本輪由新加坡政府投資公司(GIC)和Coatue領投,聯(lián)合領投方包括D. E. Shaw Ventures、Founders Fund、ICONIQ等。重要投資者名單上還列著黑石集團、高盛、摩根大通、紅杉資本、淡馬錫等一眾頂級機構。其中包含此前已披露的戰(zhàn)略投資:微軟計劃投入最高50億美元,英偉達則承諾最高100億美元。
在業(yè)務結構上,Anthropic約80%的營收來自企業(yè)客戶,這與OpenAI約30%的企業(yè)營收占比形成鮮明對比。投資者正押注其工具能夠系統(tǒng)性改造白領工作流程,目標并非傳統(tǒng)IT預算,而是規(guī)模更大的勞動力支出。Foundation for American Innovation高級研究員Dean Ball指出:“Anthropic模型的迅速普及,是自ChatGPT推出以來AI領域最具影響力的事件。”
為什么投資者如此瘋狂?
首先是創(chuàng)始團隊的硬核背景。Anthropic的七位聯(lián)合創(chuàng)始人全部來自OpenAI核心團隊,且至今仍在公司任職。相比之下,OpenAI自2015年成立以來,11位創(chuàng)始成員中已有8位離職。其次是強勁的業(yè)績表現(xiàn):年化收入140億美元,過去三年每年增長超10倍。
值得一提的是,本輪融資的資方名單中,出現(xiàn)了不少OpenAI股東的身影。至少12家曾直接投資OpenAI的機構,也出現(xiàn)在Anthropic的支持者名單中,如Founders Fund、ICONIQ和紅杉資本等。對于這些機構而言,雙重押注意味著鎖定了AI賽道最核心的兩張門票:
無論最終是OpenAI還是Anthropic勝出,它們都已穩(wěn)坐牌桌。
在接受CBS采訪時,Amodei表示,Anthropic反對將其AI模型用于大規(guī)模國內(nèi)監(jiān)控和全自動武器,但對于美國政府提出的其他使用場景均表示認可。
“這些都是對美國人來說最根本的權益:擁有人不被政府監(jiān)控的權益,讓我們的軍官親自做出戰(zhàn)爭決策的權益,而不是完全交由機器處理。”
這套說辭,聽起來依然理想主義。但在激烈的市場競爭和巨大的盈利壓力下,這份理想主義還能堅持多久?在最近的一次播客訪談中,Amodei談到,哪怕收入預測只偏差20%即從1萬億降到8000億,即使AI能力最終實現(xiàn),但只要晚一年,公司可能就會破產(chǎn)。這段話,或許比任何安全宣言都更能揭示Anthropic的真實處境。
如果連“最有良心的AI企業(yè)”都不得不向市場妥協(xié),那么AI安全的底線將由誰來守護?這場博弈的最終結局,不僅關乎一家公司的命運,也關乎整個AI產(chǎn)業(yè)的未來走向。
畢竟,當理想主義遭遇現(xiàn)實,當安全承諾讓位于生存壓力,Anthropic的困境或許正是整個行業(yè)面臨的共同考題。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.