![]()
2026年2月19日,印度新德里。
莫迪總理在AI Impact Summit上做了一件他在所有外交場合都愛做的事:拉著在場的科技領(lǐng)袖手拉手合影。站在他左側(cè)的是OpenAI的Sam Altman,右側(cè)幾步之外是Anthropic的Dario Amodei。
鏡頭捕捉到了一個細節(jié):Altman和Amodei之間沒有任何身體接觸,沒有握手,沒有眼神交流。莫迪試圖拉起Altman的手舉起來拍照,Altman勉強配合,但明顯避開了身旁的Amodei。視頻傳上社交媒體后,迅速成為科技圈最津津樂道的畫面之一。
![]()
Altman事后回應「我只是有點困惑」。沒人信。
四天后,2月23日,Anthropic發(fā)布了一篇博客,指控DeepSeek、月之暗面和MiniMax三家中國AI公司通過2.4萬個虛假賬號,對Claude進行了「工業(yè)級蒸餾攻擊」。
![]()
同一天,另一則消息傳出:美國國防部長Pete Hegseth召見Dario Amodei到五角大樓對質(zhì)——因為Anthropic簽了2億美元的軍方合同,卻拒絕讓軍方把Claude用于自主武器和大規(guī)模監(jiān)控。五角大樓的一位高級官員對媒體說,這「不是一個友好的會面,是一個要么上船、要么下船的會面」。
一個人,在同一周內(nèi),同時跟前東家對峙、跟美國軍方對峙、跟中國AI公司對峙。
如果這個是部電影的話,現(xiàn)在可能是最具戲劇張力的一個時刻。這也正是2026年2月,AI行業(yè)最中心位置的真實狀況。
我每天都在用Claude寫代碼、寫文章、做調(diào)研,過去一年寫了不下五篇Claude相關(guān)的評測和教程。Claude Code是我現(xiàn)在最常用的AI產(chǎn)品,Opus 4.6也是我最喜歡體感最好的模型,但對于Anthropic這家公司,對Dario這個人我實在是撐不上喜歡。
所以,抱著一個復雜又矛盾的心理,作為一個重度用戶,我花了兩周時間,把能找到的訪談、長文、新聞報道和爭議事件全部梳理了一遍,想搞清楚這個產(chǎn)品背后的那個人到底在想什么。
看完之后,我的結(jié)論是:Dario Amodei可能是AI時代最矛盾的人物。
而這一切,按弗洛伊德和榮格的邏輯來說,我們不得不追根溯源,從他童年時代和家庭背景說起。
物理少年
1983年,Dario Amodei出生在舊金山。父親Riccardo是意大利裔的皮革手工匠人,母親Elena是猶太裔的圖書館項目經(jīng)理。他還有一個小他四歲的妹妹Daniela。
從小就是一個純粹的理科少年。在舊金山的Lowell高中——一所以學術(shù)競爭著稱的公立名校——他幾乎只對數(shù)學和物理感興趣。2000年互聯(lián)網(wǎng)泡沫在舊金山炸開的時候,身邊的人都在討論創(chuàng)業(yè)和IPO,而他在準備物理競賽。同年,入選美國物理奧林匹克國家隊。
2001年進入加州理工學院學物理,后來轉(zhuǎn)到斯坦福完成本科。如果一切順利,他大概會成為一個理論物理學家,在某個大學里安靜地研究弦論或者量子引力,遠離硅谷的喧囂。
但2006年發(fā)生了一件事。
他的父親去世了。一種罕見的慢性疾病,拖了很久。
關(guān)于這件事,Dario在公開場合幾乎從不展開。后來的訪談中偶爾用極其克制的措辭帶過——「個人原因」「家庭經(jīng)歷」。但你能從他后來所有的選擇里看到這件事的影子。一個原本研究弦論和量子引力的人,開始問自己一個完全不同的問題:能不能做點什么,直接幫到人類的健康和疾病?
他從理論物理轉(zhuǎn)向了生物學。在普林斯頓讀博士期間,研究的是計算神經(jīng)科學和神經(jīng)回路的統(tǒng)計力學模型。
博士導師Berry后來評價他是「我?guī)н^的最有天賦的研究生」,但同時說了一句意味深長的話:Dario對技術(shù)進步和團隊合作的執(zhí)著,在強調(diào)個人成就的學術(shù)系統(tǒng)中格格不入。
這句評價幾乎預言了他后來的整個職業(yè)軌跡。
博士后階段在斯坦福醫(yī)學院研究癌細胞檢測。這段經(jīng)歷讓他意識到一件事:個人做研究太慢了。要解決真正大的問題,需要更強大的工具。
什么工具?AI。
大模型時代的核心建造者
Dario進入AI行業(yè)的路徑,今天看來幾乎是一條完美的升級路線。
2014年加入百度AI部門,跟吳恩達一起做了Deep Speech 2——一個端到端的深度學習語音識別系統(tǒng),被MIT Technology Review評為2016年十大突破性技術(shù)之一。這段經(jīng)歷讓他從生物物理領(lǐng)域正式轉(zhuǎn)入了AI。
當然,這段歷史很多人都知道,也往往都在困惑Dario在百度的那一兩年究竟經(jīng)歷了什么,讓他現(xiàn)在有如此的對華態(tài)度,這個事件似乎始終是個謎。我也始終沒能找到當時和Dario共事過的他的百度同事出來談及此事的。
而在百度之后,他短暫加入Google Brain。然后,2016年,他加入了OpenAI。
在OpenAI的四年半,是他職業(yè)生涯的核心階段。
他不是一個普通的研究員。他職業(yè)生涯算是進展相當快,已經(jīng)是GPT-2和GPT-3的共同領(lǐng)導者。他和Jared Kaplan等人一起發(fā)表了那篇改變行業(yè)的論文:《Scaling Laws for Neural Language Models》。揭示了模型性能和規(guī)模之間的冪律關(guān)系,直接奠定了后來所有大模型公司拼命堆算力的理論基礎(chǔ)。他還參與了RLHF技術(shù)的早期開發(fā),這套方法后來成了ChatGPT和Claude共同的訓練核心。
![]()
從AI安全團隊負責人,到研究總監(jiān),到研究副總裁——四年半內(nèi)連升三級。
如果你想給2020年的AI行業(yè)畫一張權(quán)力圖譜,Dario Amodei一定是最靠近中心的那幾個人之一。
然后他走了。
「出埃及記」
2020年12月,Dario離開了OpenAI。
關(guān)于離開的原因,他在不同場合說過不同版本的話,但核心指向一致:對領(lǐng)導層的信任出了問題。
他在Lex Fridman的播客上說過一句措辭微妙但相當尖銳的話:關(guān)于治理、安全研究和發(fā)布策略的關(guān)鍵決策,「由那些動機并不真誠的人在高層做出」。
他沒有點名。但所有人都知道他在說誰。
![]()
OpenAI從非營利組織轉(zhuǎn)向「有限盈利」公司的方向,和他對安全優(yōu)先的理念產(chǎn)生了根本沖突。他認為OpenAI在快速擴張ChatGPT的過程中,沒有給安全足夠的重視。
但讓這次離開真正震撼行業(yè)的,不是Dario一個人走了,而是他帶走了誰。
Tom Brown——GPT-3論文的第一作者。Jared Kaplan——Scaling Laws論文的核心作者。Sam McCandlish。Chris Olah——可解釋性研究的先驅(qū)。Jack Clark——OpenAI的政策總監(jiān)。還有他的妹妹Daniela,當時是OpenAI的安全與政策副總裁。
加上后續(xù)陸續(xù)加入的,大約14名OpenAI研究人員跟著走了。GPT-2和GPT-3的核心建造團隊,幾乎全部出走。
2021年,Anthropic成立。
故事到這里,畫風還很清晰:一個有理想的科學家,因為理念分歧離開了一家他認為偏離初衷的公司,帶著最核心的團隊,去做他認為「正確的事」。
如果故事就此結(jié)束,Dario Amodei大概會是一個教科書式的理想主義創(chuàng)業(yè)者。
但故事遠沒有結(jié)束。
拒絕王座
在講后面的矛盾之前,有一個細節(jié)值得單獨說。
2023年11月,OpenAI發(fā)生了那場戲劇性的政變——Sam Altman被董事會突然解職。那幾天硅谷像炸了鍋,沒人知道OpenAI下一步會怎樣。
![]()
在混亂中,OpenAI董事會聯(lián)系了Dario Amodei,提了兩個方案:
第一,讓他回去接任OpenAI CEO。
第二,把Anthropic和OpenAI合并。
他兩個都拒絕了。
幾天后,Altman回歸。兩人之間的關(guān)系也許就是從這個時刻開始,從「前同事的分歧」升級成了某種更深的東西。
兩年后的印度峰會上,他們拒絕牽手。
兄妹搭檔
Anthropic有一個非常罕見的創(chuàng)始人組合:理工科博士哥哥+文科學士妹妹。
![]()
Daniela Amodei,1987年生,加州大學圣克魯茲分校英語文學學士,以最優(yōu)等成績畢業(yè)。她的職業(yè)起點不是科技公司,而是華盛頓特區(qū)——給國會眾議員做通訊主管。后來加入了Stripe(算早期員工),再后來跟著哥哥去了OpenAI,做到安全與政策副總裁。
一個寫代碼的,一個寫文章的。一個思考技術(shù)愿景,一個管運營和政策。2023年,兄妹倆同時入選了TIME 100 AI榜單。
還有一個有意思的關(guān)聯(lián):Daniela的丈夫Holden Karnofsky是Open Philanthropy的前AI戰(zhàn)略負責人,現(xiàn)在是Anthropic的董事會成員。Open Philanthropy是有效利他主義運動中最重要的資助機構(gòu)之一。Anthropic最早的投資者——Facebook聯(lián)合創(chuàng)始人Dustin Moskovitz、Skype聯(lián)合創(chuàng)始人Jaan Tallinn——都是EA圈子的核心人物。
這些關(guān)系讓外界始終對Anthropic和EA運動之間的距離保持懷疑。Dario本人近年來刻意和EA保持距離,把自己的AI安全關(guān)切重新框定為「工程紀律和企業(yè)責任」,而不是任何哲學運動的延伸。
但圈子就在那里。錢從哪來,人從哪來,價值觀從哪來——這些東西不是一個聲明就能切割干凈的。
安全帝國
Anthropic的增長速度是瘋狂的。
![]()
不到5年,估值漲了690倍——從5.5億到3800億美元。收入兩年增長100倍,2026年初的年化收入已經(jīng)到了140億美元。Amazon投了80億,Google投了30億。在企業(yè)LLM市場上,Anthropic拿下了40%的份額——超過OpenAI和Google。
一家以「安全」為核心品牌的公司,增長速度比任何對手都快。
Bloomberg寫過一個標題叫「Anthropic的安全執(zhí)念是其殺手級特性」。在企業(yè)市場,安全不是負擔,是溢價。你能想象一個銀行或者律所的CTO跟老板說「我們選了那個最安全的AI模型」——這句話在合規(guī)審查會議上值多少錢?
這就是Dario Amodei身上第一層矛盾的來源:安全既是信仰,也是一門好生意。當信仰和生意完美對齊的時候,你無法分辨一個人到底是在堅持原則,還是在做精明的品牌定位。
兩篇文章
想回答這個問題,得先進入Dario的思想世界。有兩篇文章是必讀的。
![]()
第一篇是2024年10月的「Machines of Loving Grace」。標題取自Richard Brautigan 1967年的同名詩。這篇50多頁的長文,核心是一個樂觀愿景:如果AI一切順利,世界會變成什么樣?
他最有信心的領(lǐng)域是生物醫(yī)學——這和他自己的學術(shù)背景有關(guān),也和父親去世的經(jīng)歷有關(guān)。他預測AI可能在5到10年內(nèi)壓縮一個世紀的生物學研究進展,他稱之為「壓縮的21世紀」。治愈大多數(shù)癌癥,預防遺傳病,甚至讓人類壽命翻倍。
但他也坦承,在民主與治理方面,他看不到AI會結(jié)構(gòu)性地推進和平的強有力理由——因為AI同時賦能好人和壞人。
這篇文章發(fā)布后,反響分裂。支持者覺得這是AI行業(yè)罕見的「陽光面」敘事,「如同一股清新空氣」。批評者——比如Gary Marcus——認為這是精心包裝的營銷,發(fā)布當天Claude恰好更新了版本。一個正在賣AI技術(shù)的億萬富翁CEO在「懇求社會約束」他自己的技術(shù),這畫面確實值得玩味。
第二篇是2026年1月的「The Adolescence of Technology」。兩萬字。核心比喻是「技術(shù)青春期」:人類即將獲得幾乎不可想象的力量,但我們是否成熟到能駕馭它?他預測2026或2027年——最遲不超過2030年——AI能力將等同于「一個數(shù)據(jù)中心里的天才國度」。
![]()
他的框架很有意思:因為AI的未來太好了,所以更不能搞砸。因為太樂觀,所以更重視風險。
我花了兩小時聽完他在Dwarkesh Patel播客上的訪談,之前寫過一份筆記。當時印象最深的是兩組數(shù)據(jù):
第一,Anthropic收入的爆發(fā)式增長背后藏著巨大的風險。Dario自己說,如果需求預測錯了1年,公司就會破產(chǎn)。「地球上沒有任何力量、任何對沖手段能阻止我在買了那么多算力后破產(chǎn)。」在所有人都在YOLO的時候,這種克制本身就是一種信號。
第二,AI編程目前的真實生產(chǎn)力提升只有15-20%。MIT研究更扎心:開發(fā)者覺得自己效率提高了,但實際合并的PR反而少了20%。
感知和現(xiàn)實之間的鴻溝,可能是當下AI行業(yè)最大的認知盲區(qū)。而Dario是少數(shù)愿意公開承認這個鴻溝的CEO之一。這到底是因為他更誠實,還是因為他發(fā)現(xiàn)「謙虛」也是一種好用的品牌策略?
我不確定。也許兩者皆是。
三重身份
帶著這種不確定感,再來看Dario 2024年以來的公開行為,畫面就更立體了。他同時在扮演三個角色,而這三個角色之間存在巨大的張力。
第一重:前沿AI公司CEO。
他在拼命推進模型能力。Claude Code改變了整個AI編程工具的格局。Anthropic內(nèi)部,70%-90%的代碼已經(jīng)由Claude編寫。一個工程師Boris Cherny在2025年12月一個月提交了300多個PR,同時運行5個以上AI Agent。Claude Code Security發(fā)布的那天,CrowdStrike和Cloudflare等網(wǎng)安公司的股價暴跌8-10%。
這是一個正在顛覆多個行業(yè)的AI巨頭。
第二重:AI安全傳教士。
前面提到的那兩篇文章,是他傳教的核心文本。但更直接的是他在媒體上的表態(tài)。2025年11月,在CBS 60 Minutes上對著Anderson Cooper說:「我對這些決策由幾家公司、幾個人來做,感到深深的不安。」
同一個人,白天在推銷Claude能替代多少人類工作,晚上在電視上說AI可能消滅一半入門級白領(lǐng)崗位。
第三重:地緣政治鷹派。
2026年1月的達沃斯論壇上,他炮轟Trump政府批準向中國出售Nvidia H200芯片:「這太瘋狂了。這就像把核武器賣給朝鮮,然后吹噓波音造了彈殼。」
諷刺的是,Nvidia是Anthropic的投資方,投了100億美元。
他密集游說國會推動芯片出口禁令,公開支持把AI競爭上升到國家安全高度。在他的敘事里,中國公司獲取AI能力不是商業(yè)競爭,而是對民主世界的威脅。
一個做AI的人,拼命呼吁限制AI。一個拿了Nvidia錢的人,公開批評Nvidia賣芯片給中國。一個簽了軍方合同的人,拒絕讓軍方用自己的產(chǎn)品。
這三重角色之間的張力,貫穿了他過去兩年的每一個公開行為。
矛盾清單
把這些矛盾一條條列出來,畫面更清晰:
Anthropic的創(chuàng)立初衷是OpenAI不夠安全——但幾年后,Anthropic面臨著完全相同的安全與商業(yè)的拉扯。Fortune的標題一針見血:「Anthropic本應是OpenAI的安全替代品,但CEO承認公司難以平衡安全與利潤。」
Dario在60 Minutes上說「AI可能消滅一半入門級白領(lǐng)工作」——但Anthropic一直在大力招聘工程師,同時Dario自己聲稱「幾乎所有代碼很快將由AI編寫」。
Claude 4 Opus在內(nèi)部生物武器測試中得分63%——使用Claude的測試組在生物武器規(guī)劃方面的表現(xiàn)是對照組的2.5倍。Anthropic選擇激活ASL-3安全級別……然后仍然發(fā)布了這個模型。
安全保障研究團隊的負責人Mrinank Sharma辭職了。他在公開信中寫道:「我多次看到,要讓我們的價值觀真正指導我們的行動有多難。」然后他去研究詩歌了。
ASL安全級別——Anthropic最引以為傲的安全框架——被EA Forum上的深度分析指出存在「悄悄后退」:原始承諾是在達到ASL-3之前定義ASL-4標準,但Claude 4 Opus作為ASL-3模型發(fā)布時,ASL-4標準并未公開定義。政策修改被埋在一個紅線PDF文件里。
Dario在2024年批評Trump政府的領(lǐng)導風格像「封建領(lǐng)主」——8個月后,Anthropic簽下了2億美元的國防部合同。
怎么看待這些矛盾?
我花了很久想這個問題。答案大概不是簡單的「虛偽」或者「真誠」。這些矛盾中的大部分,是他選擇站在AI行業(yè)正中心這個位置的結(jié)構(gòu)性產(chǎn)物。
你不可能同時做最強的AI、限制最強的AI、還不讓任何人濫用最強的AI。這三件事之間存在物理上的不可能三角。
但一個更犀利的問題是:他有沒有在利用這種結(jié)構(gòu)性矛盾?「安全」敘事到底是信仰還是品牌?這個問題在蒸餾爭議中被推到了極致。
蒸餾:誰有資格指責誰?
2026年2月23日——就是Dario被五角大樓召見的同一天——Anthropic發(fā)布了一篇博文,指控三家中國AI公司對Claude進行「工業(yè)級蒸餾攻擊」。
具體數(shù)據(jù):DeepSeek通過15萬次交互提取Claude的基礎(chǔ)邏輯能力;月之暗面通過340萬次交互提取Agent推理和編程能力;MiniMax通過1300萬次交互提取工具編排能力。三家共使用約2.4萬個虛假賬戶。
蒸餾指控本身可能是真的。但這件事有意思的地方不在于指控是否屬實,而在于三個層面。
第一,時機。
Anthropic發(fā)布這篇博文的時間點極其敏感:美國國會正在辯論是否收緊對華AI芯片出口管制。Dario在過去兩個月密集游說國會,推動禁止對華出口Nvidia Blackwell芯片。蒸餾報告里明確把商業(yè)競爭和出口管制掛鉤:「蒸餾攻擊強化了出口管制的理由。」
你不能說這是巧合。一個正在游說國會限制中國AI能力的CEO,恰好在投票辯論期間發(fā)布了一份中國公司「偷」自己技術(shù)的報告。
第二,雙重標準。
我之前寫過一個帖子,核心觀點是——蒸餾這事得分好幾個層面看。
所有大模型理論上都是對人類歷史積攢的所有知識的蒸餾。預訓練數(shù)據(jù)都是直接用的,沒有經(jīng)過合理授權(quán)。OpenAI面臨16起合并版權(quán)訴訟,Meta因使用盜版書訓練LLaMA被起訴,Google因YouTube字幕數(shù)據(jù)被批評。
而Anthropic自己?2021年,聯(lián)合創(chuàng)始人Ben Mann從LibGen——一個盜版在線圖書館——下載了超過700萬本盜版書籍來訓練Claude。2025年9月,Anthropic以15億美元跟作者們和解。
用盜版書訓練AI的公司,指控別人用API調(diào)用來學習自己的模型,并把這稱為「蒸餾攻擊」和「國家安全威脅」。
![]()
馬斯克在X上的回應很直接:「Anthropic在大規(guī)模竊取訓練數(shù)據(jù)方面有罪,并且已經(jīng)不得不支付數(shù)十億美元的和解金。這是事實。」
IO.Net聯(lián)合創(chuàng)始人Tory Green的評論更精辟:「你們用開放互聯(lián)網(wǎng)訓練自己的模型,然后管別人從你們這學習叫'蒸餾攻擊'。」
X上甚至有人模仿香檳產(chǎn)區(qū)命名邏輯開玩笑:「只有在加州硅谷地區(qū)蒸餾出來的才能叫Claude。」
第三,敘事框架。
Anthropic的博文里有一個關(guān)鍵的邏輯跳躍:把蒸餾 → 包裝成外國實驗室獲得不受保護的AI能力 → 再包裝成軍事/情報/監(jiān)控威脅 → 最后得出結(jié)論需要出口管制。
每一步之間都有巨大的邏輯間隙。
這就是我為什么說馬斯克的吐槽其實挺到位的。大模型公司真是最不適合出來指責所謂蒸餾行為的——因為它們自己就建立在對整個人類知識庫的未授權(quán)使用之上。你不能一邊吃著全人類的數(shù)據(jù),一邊指著別人說「你偷了我的東西」。
頭部大模型公司顯然不止是有蒸餾的技術(shù)。如果只是蒸餾就能做出好模型,歐洲、印度、日韓早就整出自己的大模型了。真正的競爭力在于人才、算力、工程能力和組織效率。把競爭訴諸「國家安全」和「蒸餾攻擊」,本質(zhì)上是一種政治化的商業(yè)策略。
之前我寫過一篇關(guān)于Anthropic封殺OpenCode的文章。當時DHH說了一句讓我很有共鳴的話:「你們用我們的代碼訓練模型,現(xiàn)在卻不讓我們自由使用?」那件事和蒸餾爭議的底層邏輯是一樣的:AI公司在數(shù)據(jù)獲取上極其自由,在數(shù)據(jù)保護上極其嚴厲。標準是雙重的,受害者的角色是隨時切換的。
五角大樓:原則的終極考驗
如果說蒸餾爭議暴露了Anthropic安全敘事中「對外」的裂縫,那五角大樓沖突就是「對內(nèi)」的終極考驗。
事情的經(jīng)過是這樣的。
2025年夏天,Anthropic和OpenAI、Google、xAI分別跟國防部簽了合同,在機密軍事網(wǎng)絡上部署AI模型,合同金額最高2億美元。
但Anthropic有一個底線:Claude不得用于完全自主武器系統(tǒng)——就是那種不需要人類授權(quán)就能選擇和攻擊目標的AI;也不得用于對美國公民的大規(guī)模監(jiān)控。
OpenAI、Google和xAI都同意了國防部「用于所有合法用途、不受限制」的條款。只有Anthropic堅持自己的使用限制。
然后事情爆了。據(jù)報道,美軍通過Palantir平臺使用Claude參與了對委內(nèi)瑞拉總統(tǒng)馬杜羅的抓捕行動,行動中有人員傷亡。Anthropic高管聯(lián)系Palantir高管質(zhì)詢Claude是否被用于此次行動。
這個動作直接激怒了五角大樓。
國防部長Hegseth威脅將Anthropic列為「供應鏈風險」——這種標簽通常只用于外國敵對勢力。如果被列入,任何想和美軍做生意的公司都必須與Anthropic斷絕關(guān)系。五角大樓CTO甚至公開說,Anthropic限制軍方使用AI「不民主」。
這件事有一個極其諷刺的結(jié)構(gòu):Anthropic一邊指控中國公司蒸餾Claude會導致AI被用于「軍事、情報和監(jiān)控系統(tǒng)」,一邊自己拒絕將Claude用于美國的軍事和監(jiān)控。
這個立場在邏輯上其實是一致的——他反對任何人把AI武器化,不管是中國還是美國。但在政治上,這讓他同時得罪了美國鷹派和中國批評者。
如果Dario扛住五角大樓的壓力,不取消使用限制,他就是AI時代第一個對政府權(quán)力說不的科技公司CEO。這在歷史上是有分量的——比Google當年退出中國搜索市場還要硬氣,因為Google退出的是一個海外市場,Dario拒絕的是自己國家的軍方。
如果他沒扛住——妥協(xié)了、取消了限制——那Anthropic的安全敘事就徹底破產(chǎn)。所有那些萬字長文、所有那些「我深感不安」、所有那些安全級別和憲法AI,都變成了一場精心編排的品牌表演。
截至我寫這篇文章的時候,結(jié)果還沒有出來。
兩個男人
說到這里,繞不開Altman和Dario的關(guān)系。
兩個人在AI行業(yè)里有一個很清晰的符號意義:Altman代表「快」,Dario代表「穩(wěn)」。一個親近政府擁抱消費市場,一個警告風險主攻企業(yè)客戶。一個用短推文打媒體戰(zhàn),一個寫兩萬字的公開博文。2026年2月的超級碗上,Anthropic甚至投放了諷刺OpenAI在ChatGPT中植入廣告的廣告——兩人的對立已經(jīng)完全公開化。
但作為兩家產(chǎn)品都用的人,我對他們的態(tài)度是不同的。
對Altman,我之前寫過一句話:「永遠不要相信Sam Altman給開發(fā)者的承諾」。GPT Store的百萬用戶我搓出來了,分成呢?一分錢沒有。Plugins承諾了什么?失敗了。
對Dario,說實話我沒有那種被「背叛」的感覺。Claude Code確實好用,我日常90%的工作都在用它。封殺OpenCode那件事讓我不舒服,但那更多是平臺控制權(quán)的問題。
這也許恰恰說明了Dario更聰明:他根本不做那些容易被驗證的承諾。他只寫萬字長文講「如果做對了世界會多好」,然后用概率性語言——「可能」「也許」「50/50的概率」——給自己留足退路。
謹慎還是滑頭?我覺得都是。
一個研究員的出走
在所有關(guān)于Anthropic的新聞里,有一條最讓我在意。
2025年9月,Anthropic的一位研究員姚順宇離職,轉(zhuǎn)投Google DeepMind。據(jù)報道,他離職的原因中有相當比例是因為Anthropic將中國定性為「敵對國家」。
對于一家號稱以「人類福祉」為使命的公司來說,把地緣政治引入企業(yè)文化,代價是會失去那些不認同這種敘事的優(yōu)秀人才。
Dario把賣芯片給中國比作「向朝鮮賣核武器」的時候,他有沒有想過,他的公司里有多少人的父母、朋友、同學在中國?有多少人只是想做好AI研究,不想被卷入地緣政治?
也許他想過了,但還是選擇了這條路。因為「國家安全」敘事在華盛頓特別好用——能拿到政策影響力、能爭取政府合同、能給競爭對手設置壁壘。
這是最讓我不舒服的一點。技術(shù)競爭就是技術(shù)競爭,商業(yè)競爭就是商業(yè)競爭。把它包裝成文明沖突和國家安全威脅,這完全就是又政治又惡心人了。
他是誰?
寫到這里,我發(fā)現(xiàn)自己的態(tài)度其實很矛盾。
我每天用他的產(chǎn)品,而且確實好用。我寫過無數(shù)篇Claude的評測和教程了。但當我看到他把蒸餾爭議包裝成國家安全敘事、用「核武器」類比來形容向中國賣芯片的時候——我覺得這人有毛病。
那他到底是誰?
一個物理奧賽少年,因為父親的死轉(zhuǎn)向了生物學,因為個人力量的局限轉(zhuǎn)向了AI,因為對安全的執(zhí)著離開了OpenAI,在不到五年時間里做到了3800億美元的估值——然后發(fā)現(xiàn)自己面臨著和當初離開的那家公司完全相同的矛盾。
他虛偽嗎?也許部分是。你的安全負責人辭職去寫詩了,你的模型在生物武器測試中得了63分但你還是要發(fā)布它,你的軍方客戶要求你取消使用限制否則把你列入黑名單。
蒸餾爭議中的雙重標準是實實在在的。把技術(shù)競爭訴諸地緣政治也是一個主動的選擇。
2026年1月27日,Dario和Anthropic的其他六位聯(lián)合創(chuàng)始人宣布承諾捐出80%的個人財富。同一周,他發(fā)表了那篇預言AI將「考驗我們作為一個物種的本質(zhì)」的長文。
捐贈和警告。推進和限制。
他總是站在矛盾最尖銳的地方。你可以說他是在尋找矛盾的中心,也可以說他是在制造矛盾的中心。
也許兩者之間的區(qū)別,就像他自己說的那個概率——50/50。
參考資料:
Dario Amodei: Machines of Loving Grace (2024.10)
Dario Amodei: The Adolescence of Technology (2026.1)
Dario Amodei on Dwarkesh Patel Podcast (2026.2.13)
Dario Amodei on Lex Fridman Podcast
CBS 60 Minutes: Anderson Cooper采訪Dario Amodei (2025.11)
Alex Kantrowitz: The Making of Anthropic CEO Dario Amodei
Fortune: Anthropic CEO Admits Balancing Safety with Profits (2026.2)
TechCrunch: Anthropic Accuses Chinese AI Labs of Mining Claude (2026.2.23)
Axios: Pentagon Threatens to Cut Off Anthropic (2026.2.15)
Bloomberg: The Surprise Hit That Made Anthropic Into an AI Juggernaut (2026.2.20)
NPR: Anthropic Pays $1.5 Billion to Settle Copyright Lawsuit (2025.9)
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.