![]()
!近日,在美國紅點創投播客Unsupervised Learning最新一期中,紅點創投合伙人Jacob Effron與Datology聯合創始人兼CEO Ari Morcos、Radical Ventures合伙人Rob Toews圍繞當下市場關注的問題進行了一場討論,討論內容涉及“大模型發展是否放緩、強化學習環境、谷歌大模型的快速上升、頭部大模型公司的估值、人才戰的影響、AI智能硬件與腦機接口等內容。
Ari Morcos認為,目前大模型單純地擴大規模已經出現邊際遞減效應,但大模型的進步體現在推理能力、成本效率和小模型變強等方面;Rob Toews對此有不同觀點,他認為,目前底層智能能力的加速度確實在放緩,如果希望繼續加速,需要在基礎層面有所突破。
兩人都長期看好谷歌的AI。近期Nano Banana上線后,谷歌Gemini爬升至美國Apple APP Store前列。Ari Morcos認為,Google的問題長期在“產品落地不強、缺乏核心聚焦”,但過谷歌聯合創始人Sergey Brin的回歸與深入參與,讓Gemini團隊發生了變化。
關于目前頭部大模型公司的估值,兩人也認為OpenAI(5000億美元)和Anthropic(1800億美元)的估值是相對合理的,但上限可能不高,未來可能更多取決于業務增速和商業化結果。而xAI的2000億美元估值不如上述兩家公司合理,資本市場愿意出錢更多是“不能押Elon輸”的原因。
以下為「明亮公司」編譯的訪談正文(有刪節):
![]()
Ari Morcos(左)、Rob Toews(中),主持人Jacob(右)
大模型的發展放緩了嗎?
Jacob Effron:先聊最近爭論很大的話題:模型進展是否放緩。
Ari Morcos: 我不覺得有顯著放緩,只是更難量化、也更難被普通用戶感知。多數C端的任務上,模型已經足夠好,所以差距沒那么直觀。現在的進步更多體現在其他維度——推理(reasoning)、成本效率、更小模型追平一年前的大模型等。大家可能覺得失望、但其實預期之內的是,“單純擴規模”開始出現邊際遞減。
去看Scaling laws(Jerry Kaplan等人的研究)的工作——每擴大10倍數據或算力,回報會遞減。GPT-4.5、Llama 4、Behemoth等都體現了這點。但我們也解鎖了別的有效擴展軸。總體我不覺得放緩,只是“進步的音色”換了。
Rob Toews: 為了讓討論“有火花”,我不同意Ari。我認為底層智能能力的加速度確實在放緩。
任何指數最終都會走成S曲線。GPT-2到GPT-3,再到GPT-4的躍升驚人,但現在明顯在平臺期。一方面如Ari所說,預訓練擴大規模邊際遞減,這點有充分證據。
另一方面,去年開始有個敘事:擴大后訓練計算,基于RL(注:即強化學習、以下統一用RL)等,能延續進步曲線,擴大測試時計算的推理(reasoning)模型能在coding等領域展現新能力且很有用,但我不確定這套范式足以維持2020-2024那種進度。
特別對RL而言,在有明確可驗證答案的領域(數學、代碼)很強,但在難以驗證的開放域就不明朗。我覺得若要“再加速到下一層級”,需要更基礎的突破——雖然外界未必看見,但大廠顯然在做。就當前范式而言,確實在放緩。
Ari Morco: 補充一句,預訓練的平臺主要出現在“把模型越堆越大”這條路上——參數規模、上十億美元訓練,這條路性價比不再高。
我們在RL上看到的收益,正是因為基礎模型足夠好,RL才開始奏效。這也是S曲線。對普通用戶而言,模型已經很能打,剩下是可靠性,比如降低幻覺和成本等。對部署方來說,更便宜很重要。
Jacob Effron:回到RL,關鍵是它能否跨領域泛化?還是在某個數據集/場景上爬坡,換域就歸零?Ari你長期研究“泛化”,你的直覺是?
Ari Morcos: 我做過很多“分布外泛化”(注:即Out-of-Distribution Generalization、OOD泛化,指模型在訓練數據分布之外的新環境/新域上,仍能保持穩定、可靠的表現。簡言之,不只在“熟悉場景”里準,在“風格變了、環境換了、采樣偏了”的陌生場景里也準)。
現代自監督學習有個訣竅:把分布外盡量變成分布內。訓練覆蓋全網在某些方面確實有效,但里面很多無效數據會拖效率。RL難點在于你搭的“環境”很具體,且極易被“獎勵黑客”,模型會抓住模擬與現實的縫隙“作弊”。……AI在不完美環境里也會找這種漏洞,導致不泛化。
要讓RL奏效,你得做足夠真實、只能靠“通用原理”才能解的環境。這在編程等易驗證領域可行,但大多數真實世界任務很難,仍待驗證。
Jacob Effron: “RL環境創業”現在很熱,粗看有兩類:一類賣給那“幾家大的實驗室”,像數據標注那樣大部分工作在內部;另一類服務更廣泛的企業,幫他們用RL訓練自家模型。你們更看好哪個方向?
Rob Toews: 這個夏天冒出了一堆RL環境創業公司,不意外。
第一類——賣給有巨額預算的大實驗室(OpenAI、Anthropic等等)——短期會有營收暴增。大廠內部自建很多,也愿意外采,目標是盡快擴充RL環境的供給。但長期是否耐久,我存疑。環境生成會越來越自動化,或需求會轉向。像Scale AI那樣,關鍵是創始人能否靈活轉身,找到第二幕、第三幕。
第二類可稱“RL as a service”,給企業做基于自有數據的定制模型,學習其企業環境。我更看好這條。雖有專業服務屬性,但市場已接受“前線部署工程”(FDE)的模式。RL環境千差萬別,專家能長期創造價值。
Ari Morcos: 我同意“耐久性”是關鍵。數據采集與RL環境不完全類比:多做環境會更擅長做新環境,這和“專家數據標注”不同,也更易被自動化。標注平臺(Scale、Surge等)多做客戶專屬數據集;而很多RL環境公司想“做一個環境賣給所有人”,這會削弱差異。
如果你相信環境將成為前沿差異,那么大廠會強烈傾向自建或購買獨家環境。我預計這波不會太久,能否在窗口期做大、并順利轉型很重要。
至于第二類,我很看好。消費端需要“面廣但淺”的通才;企業要“面窄但深”的專才,做到五個九、盡可能低成本。門檻在成本與人才,但二者都在快速下降。我們已有證據:用百萬級美元就能做很強的定制模型,且成本還在掉。這會讓企業做定制RL非常有吸引力。
Jacob Effron: 以前“自建模型”更像做低成本版;現在通過這些技術,確實能在垂直領域把SOTA往前推。
Ari Morcos: 尤其當你有與任務高度匹配的專有數據時。拿這些數據去做通用Web模型就不值錢了。
谷歌AI模型的快速上升
Jacob Effron: 這周Gemini首次登頂App Store,可能受Nano Banana驅動。Google從Attention Is All You Need,到被說“落后”,再到今天“回來了”,你們怎么看?Ari你2016起在DeepMind。
Ari Morcos: 我一直看多Google Gemini,人才密度太高。Google的問題長期在“產品落地不強、缺乏必勝的聚焦”。過去一年Gemini團隊顯然變了,Sergey(谷歌聯合創始人Sergey Brin)親自深入抓,能量不同。Google一旦“全力開火”,上升很快,再疊加分發優勢,會很強。
Jacob Effron: Rob,兩三年后他們會有最強模型嗎?
Rob Toews: 和Ari看法一致,我很看好(谷歌)。ChatGPT之后,大家說Google躺平被OpenAI超車,當時確實是這樣。但Google有結構性優勢:資源、算力、深厚的人才儲備。我預計Gemini 3很快會發,會很強、達到SOTA,甚至可能更好。若讓我選一家推進前沿最猛,我會選Google。
Ari Morcos:有個財務層面的懸念:他們會贏下平臺之戰,但“平臺更難變現+成本更高”,短期利潤會被兩頭擠壓。中期他們會摸索出變現方式,也會降本(自研芯片幫助巨大),隨后恢復增長。
Jacob Effron: 這對OpenAI和Anthropic都是大威脅。OpenAI的估值很大程度基于C端ChatGPT;Anthropic更偏企業API(coding)。若Gemini 3在coding上發力,切換可能很快。
Ari Morcos: 默認(defaults)的力量很大。ChatGPT的C端品牌已出圈,但Android默認Gemini、iPhone未來默認Apple自研或Gemini?(按搜索的歷史來看,但監管未必允許),消費者端會受默認主導,尤其當質量差距不大時。
如何OpenAI、Anthropic、xAI的估值
Rob Toews: Jacob,我反問你一個。你提到OpenAI和Anthropic的融資,這么高的估值你怎么想?
Jacob Effron: 關鍵看增長率(是否)外推。若延續幾年,倍數自然變得更易接受。OpenAI有7億用戶,增量空間主要在“變現”:廣告、交易閉環等。理論上答案引擎的變現可超過搜索(直接驅動交易),但要解決“信任”。Anthropic看“編程市場”和“企業API”未來兩年的成長。要么模型有階梯式進步,要么社會擴散太慢,即便暫停研究也能靠擴散效應跑很久。
Ari Morcos:我不確定能保持“大爆發式增長”,但即便停止研究,也需要幾十年把現有能力普及到全部經濟系統。
OpenAI這類標的我可能會買,雖然上行空間小了,但并非離譜。關鍵是單位經濟是否穩健、消費者是否愿意付費。開發者會付,但我認識的非開發者很少付費。
答案引擎廣告有“破壞信任”的風險。當然搜索優化了20年,我們從零開始,怎么變現要摸索。
Jacob Effron: 你們會在OpenAI 5000億美元、Anthropic 1800億美元的估值投嗎?
Ari Morcos:OpenAI可能會吧。雖然上行空間小了,但并非不可理喻。Anthropic也類似,只是更受“開發者喜新厭舊”的影響——新模型一出大家就切,我們自己也會切。
Jacob Effron:今天xAI宣布以2000億美元融資。熱度不如上面兩家,但畢竟是Elon。你們怎么看?
Rob Toews: 能以這樣的速度與估值融資,反映了“Never bet against Elon”(別押Elon輸)在投資人心中的力量。這一理念在過去二十年確實非常奏效。他是這個時代最偉大的企業家。但如果撇開Elon,xAI以200B估值不如OpenAI或Anthropic合理。他們業務體量更小,還在追趕;技術范式、產品也沒有根本差異。最近還出現頂級研究員出走,文化也有擔憂。綜上我不下定論,但就當前態勢看,xAI不如那兩家站位穩健,后續拭目以待。
Ari Morcos: 和Rob基本一致。我覺得數字上不太自洽,但“別押Elon輸”確實是會傷錢包的教訓。
高薪挖AI人的影響:公司文化風險更大
Jacob Effron: 說到人才遷徙,過去6-12個月“搶人大戰”和“超高薪package”很熱。Ari你怎么看?會持續嗎?
Ari Morcos: 我2015年入行。那會兒有人拿到50萬美元就已夸張。每年大家都說“頂了”,事實證明還沒頂。AI的經濟價值已被驗證,不是.com泡沫那種。未來對AI的依賴會更深,“投人才”有回報就會持續。從“模型性能/美元”看,任何能當“算力乘數”的投入都很值。高質量數據是乘數,頂尖人才也是。他們能把GPU榨干,顯著提升單位算力產出,節省遠超薪酬本身。
風險在文化:是否吸來“只求不被裁/拿完錢就走”的人,打擊團隊士氣?這取決于組織如何設定激勵。
從ROI看,很講得通。平均薪酬還會漲,1億美元這種或許是階段性現象。如果Meta放出很強的模型,更多“天價”會出現;否則會少些。
Jacob Effron: 幾年前Character AI那種“非并購式并購”發生時,大家一頭霧水;事后看對某些人很聰明。也把創投生態帶到一個新狀態:一些超強團隊一出場,底層價值就被巨頭潛在收購價抬高,像Thinking Machines(前OpenAI創始人Mira Murati創立的公司)這類從Day 1就是“極具并購價值的團隊”,所以估值“地板”很高,像免費看漲期權。
Rob Toews: 正是如此,所以才會有Thinking Machines 100億美元、SSI(Ilya Sutskever創立的公司)先50億再到300億美元+這種“從一開始就很瘋狂”的估值。大廠已經試過出高價收購被拒,底線保護真實存在。
另一個現象是“非常規并購”——不是傳統M&A,而是用結構設計規避FTC或DOJ的反壟斷審查。我們在Character、Adept、Inflection,以及最近Scale AI與Meta上都看到過類似。
新問題是“錢怎么分”變得不可預測,不再按資本結構表線性分配。有的投資人只拿回本,有的折價,有的拿到更好倍數;創始人常常拿到很多,員工卻可能幾乎拿不到。這對生態有害,也只是找漏洞回避審查。我希望這是“時間段里的插曲”,會被監管修正。
Ari Morcos: 我很在意這一點。創始人與早期員工之間有“社會契約”:你拿出最寶貴的時間與精力下注,公司成功你應分享收益。
“類收購非收購”的結構破壞了契約,會讓優秀人才更不愿加入初創公司,轉而求穩,長期會餓死初創公司。
監管應介入,但更重要的是創始人的選擇:進入談判,你要捍衛員工應得的分配,避免留下一個“空殼公司+一群被稀釋的員工”的爛尾。
Jacob Effron: 我也好奇監管會怎么處理“時間敏感性”——AI時代,一年審批周期可能直接讓交易失去意義,這也是這些“結構創新”的原因。
Ari Morcos:你們覺得監管會允許收購像SSI或MSL這類“估值超100億美元但主要是靠人才密度的公司嗎?
Rob Toew:嚴格按傳統反壟斷分析,沒營收、沒市場份額的團隊被收購,不應影響消費者定價,理論上可通過。但像Lina Khan這種更積極的監管者,可能會強硬阻止比如Google收購SSI。換更“放任”的監管,則可能放行。
變化如此之快,做AI infra還有意義嗎?
Jacob Effron: 換個話題。我在BG聽到OpenAI平臺的Sherwin Wu談AI基礎設施(含RL環境)。他對“AI infra整體看空”,因為腳手架(Scaffolding)變太快。你們怎么看?
Ari Morcos:具體看類別。像Fireworks AI這類做高效推理(inference)的,不會因為范式變化就沒意義;推理總是需要。數據標注看起來也“安全”,但我覺得未必那么安全:你不需要“無限人類數據”,合成數據會占更大比重。標注公司也在轉向“評判(judges)”。
但給現有基礎模型套一層腳手架就能做某任”的,就容易被“下一代模型”吞掉。那些解決“訓練易用性、推理規模化、持續刷新模型”的基建,我看好。比如大廠的排序模型每幾小時更新一次,否則損失很大,其他行業也會走向高頻更新。
Rob Toews: 我同意“難,但不能一概看空”。技術范式遷移,總需要全新基建。關鍵是挑那些“無論范式如何變化,需求都長期存在”的類別。推理是一個。標注過去是一個,但合成數據崛起后要再評估。還有一些公司提供的能力,雖然底層技術細節常變,但它解決的“本質問題”不變,這類也能長存。
Ari Morcos: 以Datology為例,我們的核心信念是:無論你做什么AI,喂給模型的數據質量始終關鍵。我們的“不公平優勢”是:針對既定下游目標,最會“給數據定價/估值”,決定“該篩什么、該合成什么”。這個抽象框架長期有效,只是兩年后可能更多用在RL而非純預訓練。
要在AI infra里獲勝,你得抓“永遠成立的真理”,把核心能力打磨到極致,同時組織上能隨生態演進調整落地形態。
Jacob Effron: 否則就會被“打地鼠式”的變化拖死。
Ari Morcos: 尤其在AI里,唯一恒定的是“六個月后做事方式會變”。要把“適應性”設計進公司。
AI硬件與腦機接口:臨近拐點
Jacob Effron:最后幾個寬泛的問題。Ari你在Meta工作過,你覺得MSL(超級智能實驗室)實驗會成功嗎?
Ari Morcos: 有可能。就像別賭Elon輸,也別賭Zuck輸。我一個頗具爭議的觀點是,Meta在“元宇宙”的投入,長遠看會被證明合理。看他們最新的AR眼鏡路線就明白了。FAIR(Facebook AI Research)很多AI研究當時歸Reality Labs,算在“元宇宙開支”里。Llama的預算溯源可能也來自那邊。
Zuck多次做出當時被罵、事后被證明神來之筆的戰略。付高薪在財務上可能說得通,我更擔心文化副作用:我看到很多超強人才沒拿到“天價”,即便薪酬不差也會心懷芥蒂。若失敗,很可能是文化與激勵的問題,而非技術。
Jacob Effron: 硬件與模型的交匯也變精彩了。大家似乎共識“眼鏡”是形態,把模型和揚聲器裝進眼鏡。你們怎么看AI走出手機與電腦,進入物理世界?
Rob Toews: 我對BCI(腦機接口)非常看多,最近深挖了幾個月。無論侵入式還是非侵入式,都臨近拐點。侵入式需要開顱植入芯片,比如Neuralink,但能獲取高分辨率神經數據;非侵入式可把傳感器嵌入耳機、帽子、手環等。
得益于傳感器和AI(尤其信噪提取)的進步,從頭部電/磁信號噪聲中挖出足夠“信號”越來越可行。未來12-24個月會出現有說服力的消費產品,帶來全新的人機交互范式。
Ari Morcos: Meta的腕帶(EMG)是類似路徑。
![]()
Meta的EMG腕帶控制器(來源:uploadvr)
Ari Morcos: 它測的是肌電,不是神經活動,但范式相近。眼鏡形態我也認同。Google Glass當年“為時尚早”。電影Her和Humane那種“口袋+小相機”的形態不如眼鏡自然。有趣的是:人們會不會因此更常戴眼鏡/墨鏡?陽光強的地區滲透是否更快?再往后,腦機接口也會和眼鏡融合。
Jacob Effron:過去一年里,你們各自改變過的一個AI觀點?
Ari Morcos:我對“RL在大語言模型上的有效性”的看法變了。過去很多年,RL承諾大、泛化差、落地難。而這一年我們看到最有力的證據:在語言上,RL真的開始奏效了。但事后看,這有賴于base model先足夠好。把同樣的DeepSeek R1式技巧搬到三年前甚至一年前的模型,根本不靈。比如Qwen在訓練中吃了大量“推理軌跡(synthetic reasoning traces)”,所以非常會“被RL”;Llama沒吃,就不靈。
Rob Toews: 對我而言,不算“改觀”,而是“更不確定”:機器人什么時候迎來“GPT-3時刻”?我們談的AI多在“數字世界的知識勞動”。“物理世界的勞動”仍基本未被“AI優先”地自動化。
現在有兩路在攻:一是硬件無關的通用機器人基礎模型;二是通用硬件平臺人形機器人。進展很快,看起來“終會實現”,但是一兩年、五年還是更久?AI一到“原子世界”,難度指數級上升。公開研究與開源能讓我們看到些信號,但我仍不確定時間表。這會深刻影響AI改變世界的速度。
Jacob Effron: 我也來一個:一年前我會建議應用層別太想模型,深挖工作流與縱深足矣;但現在開始變了——在自家垂直領域做RL等,顯著提高可靠性與質量,開始變得必要且可行。
Ari Morcos: 歸根結底是成本。如果要花巨款就不劃算;若幾百萬美元可達成,每家企業都該做。成本還會繼續降。
Jacob Effron:還有什么你們覺得被低估的話題?
Rob Toews: 若有一個方向最可能帶來“下一次躍遷”,是“AI能自主改進AI”的遞歸路線(recursive AI)。從上世紀六十年代起,很多“超智能”路徑設想都基于此:AI能造更好的AI,形成復利。我知道一些頂尖團隊在悄悄做這事,大廠肯定也在做。它聽起來像科幻,但現在比以往更現實。如果有人把它做通了,未來幾年曲線的斜率會被它主導。
Ari Morcos:這個好,我認同。我補一個長期被低估的:數據。相對于影響力,數據在研究里依舊是低配的。大家談“數據墻”,但“合成數據”是大解法之一,關鍵在“怎么正確做”。有人擔心“模型自我喂養”導致胡言亂語(babbling),但有方法規避。外界已提到GPT-5以及多家中國模型都大量依賴高質量合成數據。結合更好地策劃、過濾真實數據,這是把現有數據再榨干的關鍵;進入垂直領域,更是剛需。若做對,影響巨大,但也有風險,需要專業方法。
作者:MD
出品:明亮公司
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.