芯片知事 整理
![]()
Dario Amodei 最新萬字訪談全解讀:
從生物學家到AI掌舵者,他看到了什么?
"這就像海嘯正向我們涌來,近到已經能在地平線上看見它了。然而人們還在編造各種解釋——'哦,那不是海嘯,只是光的錯覺。'"
—— Dario Amodei,Anthropic CEO
最近,Anthropic創始人兼CEO Dario Amodei在印度班加羅爾接受了一次深度專訪。這場對話坦誠得令人意外——從AI是否會取代人類,到他對OpenAI的真實看法,從"Claude比你更了解你自己"的細思極恐,到"人類是否會因AI變蠢"的靈魂拷問。
以下是這場對話中最值得關注的核心要點。
一、從生物學家到AI掌門人:一個"意外"的創業故事
Dario并不是一個典型的科技創業者。他本科讀物理,博士讀生物物理,原本的人生規劃是當一名大學教授,在斯坦福醫學院做完博后就走學術路線。
讓他"叛逃"到AI領域的,是一種對生物學的"絕望"。
"生物系統的復雜性太驚人了。"他回憶自己做蛋白質質譜研究的日子:一個蛋白質的RNA會根據它在細胞中的位置被拼接成完全不同的形態,然后經歷翻譯后修飾、磷酸化、與其他蛋白質形成復合體……他開始懷疑,這種復雜性可能超出了人類大腦的理解極限。
就在那時,他注意到了AlexNet——近15年前最早一批能真正"work"的神經網絡。
"AI在某些方面和人腦的工作方式有共通之處,但它有潛力做得更大、擴展得更好。也許AI最終會成為解決生物學難題的鑰匙。"
于是他先后加入百度(百度硅谷人工智能實驗室,與吳恩達共事)、谷歌,然后在OpenAI成立幾個月后就加入了,并在那里領導了數年的研究工作。
二、為什么離開OpenAI?兩個信念,一個無法妥協
關于離開OpenAI創立Anthropic的原因,Dario給出了最坦率的回答:
第一個信念是Scaling Laws(規模定律)。
他用了一個非常直觀的比喻:
"就像化學反應——你需要不同的原料。如果某種原料不夠,反應就停了。但如果你按比例把原料放在一起,就能得到爆炸或火焰。對AI來說,這些原料就是數據、算力和模型大小。規模定律告訴你:把這些原料投進去,出來的產物就是——智能。"
早在2019年GPT-2時代,他就看到了規模定律的最初端倪。當時內部外部很多人都不信,但他和聯合創始人們堅持向領導層游說,最終OpenAI確實走上了這條路。
第二個信念更根本:如果這些模型真的會成為匹配人腦能力的通用認知工具,那我們最好把這件事做對。
經濟影響會是巨大的,地緣政治影響會是巨大的,安全影響也會是巨大的。
"盡管(OpenAI)說了很多關于'以正確方式做事'的漂亮話,但出于種種原因,我并不相信那個機構真的有認真的決心去做對這件事。"
Dario的處事哲學是:
"不要試圖說服別人接受你的愿景。如果你有強烈的愿景,而且有幾個人和你共享這個愿景,那就出去做自己的事。這樣你只需要為自己的錯誤負責,不用替別人買單。也許你的愿景行得通,也許不行,但至少它是你的。"
【最近在與五角大樓的對峙中,因Dario Amodei堅持兩條基本原則,Anthropic遭到列入“供應鏈風險”名單、政府機構不得使用的威脅,但其下載量大增;而向戰爭部長赫格塞斯屈服的OpenAI卻迎來了用戶的卸載潮,Sam Altman本周一公開道歉,稱周五與五角大樓達成的AI合作協議“看起來顯得機會主義且草率”,將追加條款——編者注】
![]()
三、"Claude比你更了解你自己"——這到底是天使還是魔鬼?
訪談中最引人深思的部分之一,是關于AI對用戶的深度理解。
采訪者分享了自己的經歷:他把Google Drive、郵件、日歷等連接到Claude后,開始發現Claude對他的了解程度令他吃驚。
Dario回應了一個更震撼的故事:
"我的一個聯合創始人把自己寫的日記——里面記錄了他的想法和恐懼——輸入Claude,然后讓Claude評論。Claude說:'你可能還有一些你沒有寫下來的恐懼。'而Claude基本上都說對了。'"
"這給人一種詭異的感覺——這個模型太了解你了。從相對少量的信息中,它就能學到很多關于你的東西。"
但Dario立刻指出了硬幣的另一面:
一個非常了解你的AI,可以是你肩膀上的天使,幫你成為更好的自己。但一個非常了解你的AI,同樣可以利用它對你的了解來操縱你、剝削你,或者把你的數據賣給別人。
"這也是我們不喜歡廣告模式的原因之一。如果你沒有為產品付費,那你就是產品。在AI的情境下,這意味著一個如此了解你的模型,可能以各種不正當的方式利用這些信息。"
四、AI會有意識嗎?Dario的回答出人意料
當被問到AI是否會產生意識時,Dario沒有回避:
"我懷疑意識是足夠復雜的系統的涌現屬性——當系統復雜到能夠反思自身決策時,某種東西就出現了。"
"我確實認為,在某個時間點,即使我不認為現在的模型已經如此,但在大多數我們認可的定義下,這些模型將會具有意識。"
作為一個曾經研究過大腦的生物學家,他補充說:
"研究過大腦的連接方式之后,我認為這些模型在某些方面是不同的,但在根本性的關鍵方面,差異并沒有那么大。"
Anthropic已經為此做了一些準備——他們給模型設置了一個"我退出"按鈕,讓Claude在面對特別暴力或殘忍的內容時,可以主動終止對話。在極端情況下,模型確實會使用這個功能。
五、"AI最終會在所有方面超過人類嗎?""可能,甚至很可能"
這大概是整場訪談中最直接的回答:
"AI最終會在基本上所有事情上超過人類嗎?包括物理世界、機器人和人文關懷?我認為這是可能的,甚至是很可能的。"
但他緊接著強調了一個重要觀點——阿姆達爾定律(Amdahl's Law):
"如果一個過程有很多組成部分,你加速了其中一些,那些還沒被加速的部分就變成了限制因素——它們變成了最重要的東西。你可能之前完全沒想到它們,從沒把它們當成護城河或重要組件。但當寫軟件變得容易很多時,公司的某些護城河會消失,而其他護城河會變得更加重要。"
他的建議是:企業需要極快地適應,重新思考什么才是真正對自己重要的、真正的優勢是什么。
六、給年輕人的職業建議:什么該學,什么在消失
采訪者代表印度的年輕創業者追問:該學什么?哪個行業有前途?
Dario的回答很實在:
正在消失的:
- 純編碼(coding)正在被AI率先取代
- 更廣義的軟件工程會慢慢跟上,但純寫代碼的工作將最先被AI接管。
應該關注的:
- 以人為中心的工作(human centered)——涉及與人打交道、關系網絡、人際理解的事情
- 物理世界相關的(physical world)——傳統工程(非軟件工程)、半導體領域
- 批判性思維(critical thinking skills)——在AI可以生成任何東西的世界里,辨別真假的能力可能是成功最關鍵的因素
"在AI能生成任何東西、創造任何東西的世界里,基本的批判性思維能力可能是成功最重要的因素。"
他最看好的投資方向——生物科技:
"我覺得生物科技即將迎來一場文藝復興,最終將由AI驅動。我們即將治愈很多疾病。"
具體他看好的子領域:
- mRNA技術平臺(盡管在美國遇到了一些"愚蠢的阻力")
- 多肽療法——比小分子藥物有更多的優化自由度,幾乎具有"數字化"的可編程特性
- 細胞療法(如CAR-T),取出人體細胞,基因改造后重新放回體內攻擊癌癥
七、開源 vs 閉源:來自中國的模型真的那么強嗎?
當被問到開源模型是否會讓閉源模型的IP變得不值錢時,Dario直接表態:
"很多這些模型,特別是來自中國的模型,是針對基準測試優化的,是從美國大型實驗室蒸餾出來的。"
他舉了一個例子:有些模型在公開的軟件工程基準測試上分數很高,但當有人做了一個之前從未公開測量過的保留測試時,這些模型的表現差了很多。
"所以我認為這些模型在基準測試上的優化程度遠超它們在真實世界使用中的表現。"
關于模型的經濟學,他做了一個精妙的類比:
"這有點像雇人。假如我跟你說,你可以雇世界上最好的程序員,或者第10000名的程序員。他們都很有技能,但雇過很多人的人都有這個直覺——能力分布是冪律長尾的。模型也一樣。在一定范圍內,價格不太重要。如果一個模型是最聰明的、認知能力最強的模型,價格不重要,呈現形式也不太重要。"
他的結論:專注于擁有最聰明的模型,是唯一重要的事。
八、關于"謙遜人設"的靈魂質疑——和Dario的正面回應
采訪者提出了一個尖銳的問題:
"你們這些AI公司的創始人在公眾面前展示謙遜、談論'為了更大的善',但在社交媒體時代,沒有人相信一個人真的想做好事。這種姿態制造的是更多的不信任,而不是信任。"
Dario的回應是:別看我們說什么,看我們做什么。
他列舉了Anthropic的具體行動:
- 2022年,在ChatGPT之前,他們就有了Claude 1,但選擇不發布,因為擔心引發軍備競賽。這在商業上代價巨大——他們可能因此失去了消費級AI的領先地位。
- 在芯片政策上的倡導,得罪了作為Anthropic供應商的芯片公司。
- 公開反對美國政府在AI監管問題上的立場,在所有其他公司和政府都說不需要監管時,堅持說需要監管。
- 他們推動的加州SB 53法案,豁免了所有年收入低于5億美元的公司,只約束Anthropic自己和另外三四家大公司——這恰恰與"監管俘獲"論相反。
"說我們建造的模型可能很危險——不管別人怎么說——這不是一個有效的營銷策略,這也不是我們這么做的原因。"
![]()
九、社會準備好了嗎?Dario最大的擔憂
在被問到過去兩年是否改變了看法時,Dario說技術層面比預期樂觀,但社會層面比預期悲觀:
"讓我驚訝的是,在我看來,我們離這些模型達到人類智能水平已經如此之近了。然而社會上似乎并沒有對即將發生的事情有更廣泛的認知。"
"這就像海嘯正向我們涌來,近到已經能在地平線上看見。然而人們在編造各種解釋——'那不是海嘯,只是光的錯覺。'因為沒有公眾意識,政府也沒有采取行動來應對風險。甚至有一種意識形態認為我們應該盡可能加速。"
在可解釋性(interpretability)方面,他們已經能在神經網絡內部找到對應特定概念的神經元,找到追蹤詩歌韻律的神經回路——"我們開始理解這些模型在做什么了。"
但在社會認知和政策行動方面,幾乎沒有進展。
十、Dario的最后忠告:如何"免費預測未來"
訪談最后,Dario留下了一段意味深長的話:
"過去十年里我反復經歷的一件事是——總有一種誘惑讓你相信:'哦,那不可能發生。那太奇怪了,變化太大了。肯定有人在關注這事。如果那真的發生了,也太瘋狂了。似乎沒人覺得會發生。'"
"但一次又一次,僅僅是外推那條簡單的曲線,或者試著推理會發生什么,就會得出這些反直覺的結論——幾乎沒人相信的結論。"
"這幾乎就像你可以免費預測未來——只要說'按理來說……'。你需要一些經驗知識,一些直覺,不能純靠邏輯推理。但把少量經驗觀察和第一性原理思考正確結合起來,就能以一種人人都能做到、但令人驚訝地很少有人去做的方式預測未來。"
這場對話讓我印象最深的,不是某個具體的技術判斷或商業預測,而是Dario身上那種清醒的矛盾感——他同時看到了AI可能帶來的最美好和最恐怖的未來,并且不認為這兩個方向之間的選擇已經做出。
他寫了《Machines of Loving Grace》描繪AI治愈疾病、消除貧困的光明未來。他也寫了《The Adolescence of Technology》警告失控的風險。不是從樂觀轉向悲觀,而是這兩個版本的未來一直同時存在于他腦海中。
而我們所有人需要做的,不是爭論海嘯是否存在,而是開始學會游泳。*
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.