![]()
今天聽完了Acquired.fm播客發布的《Google: The AI Company》完整音頻,整整四個小時,信息密度極高,非常震撼。這期節目用25年的時間跨度,完整還原了Google如何匯聚全球最頂尖的AI人才、發明了Transformer這個改變世界的技術,卻眼看著自己培養的人才創建OpenAI和Anthropic,最終陷入史上最經典的創新者困境。
聽完后我整理了這份詳細的編譯,希望能幫你理解這個科技史上最引人入勝的案例。
史上最經典的創新者困境
想象這樣一個場景:
你擁有一家極其賺錢的公司,在全球最大的市場之一中占據90%的份額,被美國政府認定為壟斷企業。然后,你的研究實驗室發明了一項革命性技術——這項技術比你現有的產品在大多數應用場景中都要好得多。
出于"純粹的善意",你的科學家們將研究成果發表了出來。很快,創業公司們開始基于這項技術構建產品。
你會怎么做?當然是全力轉向新技術,對吧?
但問題是:你還沒有找到讓這項新技術像舊業務那樣賺錢的方法。
這就是今天的Google。
2017年,Google Brain團隊發表了Transformer論文——這篇論文催生了OpenAI的ChatGPT、Anthropic、以及NVIDIA市值的暴漲。整個AI革命都建立在Google的這一項發明之上。
更令人驚訝的是:10年前,幾乎所有AI領域的頂尖人才都在Google工作——Ilya Sutskever(OpenAI首席科學家)、Dario Amodei(Anthropic創始人)、Andrej Karpathy(前Tesla AI負責人)、Andrew Ng、所有DeepMind創始人...
這就像在計算機時代的黎明,IBM雇傭了全世界每一個會編程的人。
今天,Google依然擁有最好的AI資產組合:頂級模型Gemini、年收入500億美元的云服務、唯一可與NVIDIA GPU抗衡的TPU芯片、以及全球最大的搜索流量入口。
但問題依然存在:Google應該如何抉擇?是冒險全力投入AI,還是保護搜索廣告這棵搖錢樹?
讓我們回到故事的起點,看看Google如何走到今天這一步。
![]()
關鍵時間線第一章:起源(2000-2007)
微廚房里的對話改變了一切
故事要從2000年或2001年的某一天說起。
在Google的某個微廚房(micro kitchen)里,三個工程師正在吃午餐:Google最早的10名員工之一George Herrick、著名工程師Ben Gomes,以及新入職的Noam Shazeer。
George隨口說了一句改變歷史的話:
"我有個理論——壓縮數據在技術上等同于理解數據。"
他的邏輯是:如果你能把一段信息壓縮成更小的形式存儲,然后再還原成原始形態,那么執行這個過程的系統一定"理解"了這些信息。就像學生學習教科書,在大腦中存儲知識,然后通過考試證明理解了內容。
年輕的Noam Shazeer停下了手中的動作:"哇,如果這是真的,那太深刻了。"
這個想法預示了今天的大型語言模型——將全世界的知識壓縮到幾TB的參數中,然后"解壓"還原出知識。
PHIL的誕生:第一個語言模型
接下來的幾個月里,Noam和George做了一件最"Google"的事情:他們停下了所有其他工作,全身心投入研究這個想法。
這恰好是2001年Larry Page解雇了所有工程經理的時期——每個人都在做自己想做的事。
很多人覺得他們在浪費時間。但Sanjay Ghemawat(Jeff Dean的傳奇搭檔)說:"我覺得這很酷。"
George的回應令人印象深刻:"Sanjay認為這是好主意,而世界上沒人比Sanjay更聰明,所以為什么要接受你認為這是壞主意的觀點?"
他們深入研究自然語言的概率模型——對于互聯網上出現的任何詞序列,下一個詞序列出現的概率是多少?(聽起來是不是很熟悉?這就是今天LLM的基本原理。)
他們的第一個成果是Google搜索的"你是不是要找"拼寫糾正功能”。
然后他們創建了一個相對"大型"(在當時)的語言模型,親切地稱之為PHIL(Probabilistic Hierarchical Inferential Learner,概率層次推理學習器)。
Jeff Dean的周末項目
2003年,Susan Wojcicki和Jeff Dean準備推出AdSense。他們需要理解第三方網頁的內容,以便投放相關廣告。
Jeff Dean借用了PHIL,用一周時間寫出了AdSense的實現(因為他是Jeff Dean)。
Boom,AdSense誕生了。這為Google一夜之間帶來了數十億美元的新收入——因為他們把原有的AdWords廣告投放到了第三方網頁上,瞬間擴大了庫存。
Jeff Dean傳奇時刻
在那個"Chuck Norris Facts"流行的年代,Google內部流行起了"Jeff Dean Facts":
真空中的光速曾經是每小時35英里,直到Jeff Dean花了一個周末優化了物理學。
Jeff Dean的PIN碼是圓周率的最后四位數字。
對Jeff Dean來說,NP問題意味著"No Problemo"(沒問題)。
到2000年代中期,PHIL已經占用了Google數據中心15%的基礎設施——用于AdSense廣告投放、拼寫糾正等各種應用。
第二章:黃金十年(2007-2012)
從12小時到100毫秒的奇跡
2007年,Google推出了翻譯產品。首席架構師Franz Och參加了DARPA(美國國防高級研究計劃局)的機器翻譯挑戰賽。
Franz構建了一個更大的語言模型,在兩萬億詞的Google搜索索引上訓練,取得了天文數字般的高分。
Jeff Dean聽說后問:"太棒了!你們什么時候上線?"
Franz回答:"Jeff,你不明白。這是研究項目,不是產品。這個模型翻譯一個句子需要12小時。"
DARPA挑戰賽的規則是:周一給你一組句子,周五提交翻譯結果。所以他們有足夠時間讓服務器運行。
Jeff Dean的回應是:"讓我看看你的代碼。"
幾個月后,Jeff重新架構了算法,讓它可以并行處理句子和單詞。因為翻譯時不一定需要按順序處理——可以把問題分解成獨立的部分。
而Google的基礎設施(Jeff和Sanjay基本上參與構建了)極其擅長并行化——可以把工作負載分解成小塊,發送到各個數據中心,然后重新組裝返回給用戶。
結果:平均翻譯時間從12小時降到了100毫秒。
然后他們在Google翻譯中上線了這個模型,效果驚人。
這是Google在產品中使用的 第一個"大型"語言模型 。
斯坦福AI實驗室的秘密
2007年4月,Larry Page從斯坦福挖來了Sebastian Thrun——斯坦福人工智能實驗室(SAIL)的負責人。
有趣的是,Sebastian幾乎是被"收購"進來的——他和幾個研究生正在創業,已經拿到了Benchmark和Sequoia的term sheet。Larry直接說:"不如我們用簽字費的形式收購你們還未成立的公司?"
SAIL不僅匯聚了世界上最優秀的AI教授,還有一批斯坦福本科生在那里做研究助理。
其中一位是Meta的首席產品官 Chris Cox 。
另一位大一大二學生后來輟學了,參加了YC 2005年夏季第一批,創辦了一個失敗的本地移動社交網絡...
那就是Sam Altman,公司叫Loopt。
是的,Sam Altman曾在SAIL做研究,還在WWDC上和喬布斯同臺展示,穿著雙層翻領襯衫——那是不同的科技時代。
Google X與Google Brain的誕生
Sebastian加入Google后,首個項目是 Ground Truth ——重新創建所有地圖數據,擺脫對Tele Atlas和Navtech的依賴。
這個項目非常成功。Sebastian開始游說Larry和Sergey:
"我們應該大規模做這件事——把AI教授們引入Google做兼職。他們可以保留學術職位,來這里參與項目。他們會喜歡的——看到自己的工作被數百萬人使用,賺錢,拿股票,還能繼續當教授。"
Win-win-win。
2007年12月,Sebastian邀請多倫多大學一位相對不知名的機器學習教授Geoff Hinton來Google做技術演講——談談他和學生們在神經網絡方面的新工作。
Geoff Hinton,現在被稱為"神經網絡教父",在當時是邊緣學者。 神經網絡不受尊重——30-40年前的炒作已經破滅。
有趣的冷知識:Geoff Hinton是 George Boole的曾曾孫 ——布爾代數和布爾邏輯的發明者。諷刺的是,布爾邏輯是符號化、確定性的計算機科學基礎,而神經網絡恰恰相反——是非確定性的。
Geoff和前博士后Yann LeCun一直在傳播:如果我們能實現多層深度神經網絡(深度學習),就能實現這個領域的承諾。
到2007年,摩爾定律的發展讓測試這些理論成為可能。
Geoff的演講在Google引發轟動——這可以讓他們的語言模型工作得更好。Sebastian把Geoff引入Google,先是顧問,后來Geoff在2011-2012年左右成為Google的 暑期實習生 ——當時他已經60歲了。
到2009年末,Sebastian、Larry和Sergey決定成立一個新部門:Google X,登月工廠。
第一個項目Sebastian自己領導(我們稍后再說)。
第二個項目將改變整個世界——Google Brain。
Google Brain:Distbelief與貓論文
Andrew Ng接任SAIL負責人后,也被Sebastian招募來兼職。
2010-2011年間的某天,Andrew在Google園區碰到了Jeff Dean。他們討論了語言模型和Geoff Hinton的深度學習工作。
他們決定:是時候在Google高度并行化的基礎設施上,嘗試構建一個真正大型的深度學習模型了。
2011年,Andrew Ng、Jeff Dean和神經科學博士Greg Corrado三人啟動了Google X的第二個官方項目: Google Brain 。
Jeff為此構建了一個系統,命名為 Distbelief ——既是雙關"分布式"(distributed),也是"難以置信"(disbelief),因為大多數人認為這不會成功。
技術突破:異步分布式學習
當時所有研究都認為需要 同步 訓練——所有計算需要密集地在單機上進行,就像GPU那樣。
但Jeff Dean反其道而行之:Distbelief在大量CPU核心上分布式運行,可能跨越整個數據中心,甚至不同數據中心。
理論上這很糟糕——每臺機器都需要等待其他機器同步參數。
但Distbelief采用 異步更新 ——不等待最新參數,基于過時數據更新。
理論上不應該有效。但它成功了。
改變世界的貓論文
2011年底,他們提交了一篇論文:《使用大規模無監督學習構建高級特征》——但所有人都叫它 "貓論文"(Cat Paper) 。
他們訓練了一個九層神經網絡,使用16,000個CPU核心(跨1000臺機器),從YouTube視頻的未標注幀中識別貓。
Sundar Pichai后來回憶說,看到貓論文是他在Google歷史上最關鍵的時刻之一。
后來的TGIF(全員大會)上展示這個結果時,所有Google員工都意識到:"天啊,一切都變了。"
貓論文的商業影響
Jeff Dean的描述:
"我們構建的系統在1000萬個隨機YouTube幀上進行無監督學習。經過一段時間訓練后,模型在最高層構建了一個表示—— 有一個神經元會對貓的圖像興奮。它從未被告知什么是貓,但它見過足夠多的貓正面照片,那個神經元就會為貓點亮,基本不為其他東西點亮。 "
![]()
這證明了:大型神經網絡可以在沒有監督、沒有標注數據的情況下學習有意義的模式。
而且可以在Google自己構建的分布式系統上運行。
YouTube的問題是: 人們上傳視頻,但不擅長描述視頻內容。推薦系統只能基于標題和描述。
貓論文證明,可以用深度神經網絡"看懂"視頻內部的內容,然后用這些數據決定推薦什么視頻。
這導致了YouTube的一切。 讓YouTube走上了成為全球最大互聯網資產和最大媒體公司的道路。
從2012年到2022年ChatGPT發布,AI已經在塑造我們所有人的存在,驅動著數千億美元的收入。
它在YouTube feed中,然后Facebook借鑒了(他們雇傭Yann LeCun成立Facebook AI Research),然后到Instagram,然后TikTok和字節跳動采用,然后回到Facebook和YouTube的Reels和Shorts。
這是接下來10年人類在地球上度過閑暇時間的主要方式。
重要觀點:AI時代始于2012年
所有人都說2022年后是AI時代。但對于任何能充分利用推薦系統和分類系統的公司來說,AI時代始于2012年。
第三章:大爆炸時刻(2012-2017)
AlexNet:深度學習的"宇宙大爆炸"
2012年,除了貓論文,還有Jensen(NVIDIA CEO)所說的"AI大爆炸時刻": AlexNet 。
回到多倫多大學,Geoff Hinton有兩個研究生:Alex Krizhevsky和 Ilya Sutskever (未來OpenAI的聯合創始人和首席科學家)。
三人用Geoff的深度神經網絡算法參加著名的 ImageNet競賽 ——斯坦福李飛飛組織的年度機器視覺算法競賽。
李飛飛組建了1400萬張手工標注圖像的數據庫(用Amazon Mechanical Turk標注)。
競賽內容是:哪個團隊能寫出算法,在不看標簽的情況下——僅看圖像——最準確地預測標簽?
GPU的關鍵作用
多倫多團隊去本地百思買(Best Buy)買了兩塊 NVIDIA GeForce GTX 580顯卡 ——當時NVIDIA的頂級游戲卡。
他們用NVIDIA的編程語言CUDA重寫神經網絡算法,在這兩塊現成的GTX 580上訓練。
結果:他們比任何其他參賽者好40%。
這就是AlexNet——引發深度學習革命的時刻。
第一次AI拍賣
三人做了很自然的事:成立公司 DNN Research(Deep Neural Network Research) 。
這家公司沒有產品。只有AI研究人員。
可以預見的是,它幾乎立即被收購了——但有個有趣的故事:
第一個出價的實際上是 百度 。Geoff Hinton做了任何學者都會做的事來確定公司的市場價值:
"非常感謝。我現在要舉辦一場拍賣。"
他聯系了百度、Google、微軟和DeepMind。拍賣以 4400萬美元 結束, Google贏得 。團隊直接加入Google Brain。
幾年后,負責Google X的Astro Teller在《紐約時報》上被引用說:
"Google Brain為Google核心業務(搜索、廣告、YouTube)帶來的收益,已經遠超Google X和整個公司多年來所有其他投資的總和。"
DeepMind:AI界的YouTube收購
但Google的AI故事還有另一個重要部分——一次外部收購,相當于Google AI領域的YouTube收購: DeepMind 。
2014年1月,Google花5.5億美元收購了一家倫敦的不知名AI公司。人們困惑:Google在倫敦買了個我從未聽說過的做AI的東西?
事實證明,這次收購是蝴蝶煽動翅膀的時刻,直接導致了OpenAI、ChatGPT、Anthropic,基本上導致了一切。
DeepMind的起源
DeepMind成立于2010年,由神經科學博士 Demis Hassabis (之前創辦過視頻游戲公司)、倫敦大學學院的 Shane Legg ,以及第三位聯合創始人 Mustafa Suleyman 共同創立。
公司標語:"解決智能,然后用它解決一切。"
Founders Fund領投了約200萬美元的種子輪。后來Elon Musk也成為投資人(經過一次關于AI風險和火星的對話)。
收購大戰
2013年底,Mark Zuckerberg打電話來要收購。但Demis堅持要獨立性和特定的治理結構,Facebook不同意。
Elon Musk提出用特斯拉股票收購,但希望他們為特斯拉工作,這不符合DeepMind的愿景。
Larry Page(據說在和Elon的飛機上)得知此事,與Demis建立了聯系。Demis感覺Larry理解使命。
經過談判,Google提供 5.5億美元 ,交易達成,建立了獨立的倫理委員會(包括PayPal黑幫的Reid Hoffman)。DeepMind團隊保持獨立,專注于AGI研究。
收購后進展順利,包括大幅節省運營成本(數據中心冷卻降低40%能耗),后來的AlphaGo震驚世界。
第四章:Transformer革命(2017)
改變一切的八人團隊
2017年,Google Brain團隊的八名研究人員發表了一篇論文。
Google本身的反應是:"酷。這是我們語言模型工作的下一次迭代。很好。"
但這篇論文和它的發表,實際上給了OpenAI機會——接過球并奔跑,構建下一個Google。
因為這是Transformer論文。
從RNN到Transformer的演進
在Transformer論文之前,Google已經用神經網絡重寫了翻譯系統,基于 循環神經網絡(RNN) 和 LSTM ——當時的最先進技術,是巨大進步。
但持續研究發現了局限性——特別是一個大問題:它們太快"遺忘"上下文。
Google Brain內部團隊開始尋找更好的架構,既能像LSTM那樣不會太快忘記上下文,又能更好地并行化和擴展。
研究員 Jakob Uszkoreit 一直在探索拓寬語言處理中"注意力"(attention)范圍的想法。
如果不只關注緊鄰的詞,而是告訴模型:注意整個文本語料庫會怎樣?
Jakob開始合作,他們決定把這個新技術稱為 Transformer 。
Noam Shazeer的魔法
還記得Noam Shazeer嗎?早期語言模型PHIL的創造者,AdSense的關鍵人物。
Noam聽說這個項目后說:"嘿,我在這方面有經驗。聽起來很酷。LSTM確實有問題。這可能有前途。我要加入。"
在Noam加入之前,他們有Transformer的工作實現,但實際上沒有比LSTM產生更好的結果。
Noam加入團隊,基本上"pull了一個Jeff Dean"—— 從頭重寫了整個代碼庫 。
完成后,Transformer現在 碾壓 了基于LSTM的Google翻譯解決方案。
而且他們發現:模型越大,結果越好。
他們發表了論文: 《Attention Is All You Need》 (注意力就是你所需要的一切)——明顯呼應披頭士經典歌曲。
Transformer產生最先進的結果,極其高效,成為GPT等的基礎。
截至2025年,這篇論文被引用超過173,000次,是21世紀被引用第7多的論文。
人才流失的開始
當然,在幾年內,Transformer論文的全部八位作者都離開了Google,要么創辦要么加入AI創業公司,包括OpenAI。
殘酷。
第五章:OpenAI的崛起(2018-2022)
GPT系列的誕生
2018年6月,OpenAI發表了一篇論文,描述他們如何采用Transformer,開發了一種新方法:
在互聯網大量通用文本上預訓練
然后將這種通用預訓練 微調 到特定用例
他們還宣布訓練并運行了這種方法的第一個概念驗證模型: GPT-1(Generatively Pre-trained Transformer version 1) 。
2019年,在第一次微軟合作和10億美元投資后,OpenAI發布 GPT-2 ——仍然早期但非常有前途。
2020年6月, GPT-3 問世。仍然沒有面向用戶的前端界面,但已經非常好。開始出現大量炒作。
之后,微軟再投資 20億美元 。
2021年夏天,微軟使用GPT-3發布 GitHub Copilot ——這是第一個,不僅是微軟產品,而是任何地方第一個將GPT融入的產品。
ChatGPT:改變游戲規則的時刻
到2022年底,OpenAI有了GPT-3.5。但仍有個問題:我該如何實際使用它?
Sam Altman說:我們應該做一個聊天機器人。這似乎是自然的界面。
一周內,內部就做出來了。他們只是把對ChatGPT 3.5 API的調用變成一個產品——你和它聊天,每次發送消息就調用GPT-3.5 API。
結果證明這是神奇的產品。
2022年11月30日,OpenAI推出GPT-3.5新界面的研究預覽版: ChatGPT 。
那天早上,Sam Altman發推:"今天我們推出了ChatGPT。試試和它聊天:chat.openai.com"
- 不到一周:100萬用戶
- 一個月后(12月31日):3000萬用戶
- 兩個月后(1月底):1億注冊用戶——史上達到這一里程碑最快的產品
完全瘋狂。
第六章:Google的Code Red(2023-2025)
錯失的機會
諷刺的是,在ChatGPT之前,Google就有聊天機器人。
Noam Shazeer——那個不可思議的工程師,重新架構了Transformer,Transformer論文的主要作者之一,在Google擁有傳奇職業生涯——在Transformer論文發表后立即開始向Google領導層倡議:
"我認為Transformer將如此重大,我們應該考慮拋棄搜索索引和10個藍色鏈接模型,全力將整個Google轉變為一個巨大的Transformer模型。"
Noam實際上構建了一個大型Transformer模型的聊天機器人界面。
Google繼續研究Mina項目,發展成 Lambda ——也是聊天機器人,也是內部的。
2022年5月,他們發布了向公眾開放的 AI Test Kitchen ——一個AI產品測試區,人們可以試用Google的內部AI產品,包括Lambda聊天界面。
但有個限制:Google將Lambda Chat的對話限制在五輪。 五輪后,就結束了。謝謝。再見。
原因是:安全考慮。
存在威脅時刻
ChatGPT問世,成為史上最快達到1億用戶的產品。
對Sundar、Larry、Sergey、所有Google領導層來說,立即顯而易見:這是對Google的存在威脅。
ChatGPT是做Google搜索同樣工作的更好用戶體驗。
2022年12月,甚至在大規模推出之前但在ChatGPT時刻之后,Sundar在公司內部發布了Code Red(紅色警報)。
Bard的災難性發布
第一件事:他們把Lambda模型和聊天機器人界面拿出來,重新品牌為 Bard 。
2023年2月,立即發布,向所有人開放。
也許這是正確的舉動,但天啊,這是個糟糕的產品。
很明顯它缺少ChatGPT擁有的某種魔力——用人類反饋進行強化學習(RLHF)來真正調整響應的適當性、語氣、聲音、正確性。
更糟糕的是:在Bard的發布視頻中——一個精心編排的預錄視頻——Bard對其中一個查詢給出了不準確的事實回應。
Google股價單日暴跌8%,市值蒸發1000億美元。
5月,他們用Brain團隊的新模型 PaLM 替換Lambda。稍好一點,但仍然明顯落后于GPT-3.5。
而且2023年3月,OpenAI推出了 GPT-4 ——更好。
第七章:Gemini時代(2023至今)
Sundar的兩個重大決策
此時,Sundar做出了兩個非常非常重大的決定:
決策一:統一AI團隊
"我們不能再在Google內部有兩個AI團隊。我們要把Brain和DeepMind合并為一個實體:Google DeepMind。"
Demis Hassabis擔任CEO,Jeff Dean繼續擔任首席科學家。
決策二:一個模型統治一切
"我要你們去做一個新模型,我們只有一個模型。這將是Google所有內部使用、所有外部AI產品的模型。它將被稱為Gemini。不再有不同的模型,不再有不同的團隊。只有一個模型用于一切。"
這也是巨大的決定。
Gemini的快速發展
Jeff Dean和Brain的Oriol Vinyals與DeepMind團隊合作,開始研究Gemini。
后來當他們通過Character AI交易把Noam帶回來時,Noam加入Gemini團隊。現在Jeff和Noam是Gemini的兩位聯合技術負責人。
關鍵特性:Gemini將是多模態的——文本、圖像、視頻、音頻,一個模型。
時間線:
- 2023年5月:在Google I/O主題演講中宣布Gemini計劃
- 2023年12月:早期公開訪問
- 2024年2月:推出Gemini 1.5,具有100萬token上下文窗口
- 2025年2月:發布Gemini 2.0
- 2025年3月:一個月后推出Gemini 2.5 Pro實驗模式
- 2025年6月:GA(全面可用)
六個月構建、訓練、發布。瘋狂。
他們宣布Gemini現在有 4.5億月活躍用戶 。
AI全面整合
- AI Overviews(搜索AI概覽):首先作為Labs產品推出,后來成為所有使用Google搜索的人的標準
- AI Mode:深度AI搜索模式
- 多模態生成工具:Veo(視頻)、Genie(游戲)等
- 企業應用:Google Workspace全面AI化
Bull Case(樂觀情景):Google的優勢
1. 無與倫比的分發渠道
依然是全球"互聯網入口"
可以隨意引導流量(AI Overviews、AI Mode)
Google搜索流量仍處于歷史高位
2. 全棧AI能力(獨一無二)
- 頂級模型:Gemini
- 自研芯片:TPU(唯一可與NVIDIA GPU抗衡的規模化AI芯片)
- 云基礎設施:Google Cloud(年收入500億美元)
- 自給自足的資金:不依賴外部融資
有人告訴我:如果你沒有基礎前沿模型或AI芯片,你在AI市場可能只是商品。Google是唯一兩者都有的公司。
3. 基礎設施優勢
私有數據中心間光纖網絡
定制化硬件架構
無人能及的規模
4. 數據與個性化潛力
海量個人和企業數據
可能實現深度個性化AI
1.5億Google One付費用戶且快速增長
5. 新市場機會
Waymo自動駕駛
視頻AI
企業AI解決方案
遠超傳統搜索的應用邊界
6. 唯一自給自足的模型制造商
云廠商有自給自足的資金,NVIDIA有,但所有模型制造商都依賴外部資本——除了Google。
Bear Case(悲觀情景):巨大挑戰
1. 變現難題
AI產品形態不適合廣告
價值創造多,價值捕獲少
Google在美國每用戶每年賺約400美元(搜索廣告)
誰會為AI付費400美元/年?只有很小一部分人
2. 市場份額下降
搜索市場占90%
AI市場占多少?可能只有25%,最多50%
不再是主導者
3. 高價值場景流失
AI正在蠶食最有價值的搜索場景
旅行規劃?現在用AI
不再點擊Expedia的廣告
4. 產品優勢不明顯
1998年Google推出時立即明顯是最優產品
今天絕對不是這樣
有4-5個同等優秀的AI產品
Bard初版明顯劣質,現在只是"追平"
5. 失去生態支持
現在是在位者,不再是挑戰者
人們和生態系統不再像Google創業時那樣為它加油
也不像移動轉型時那樣
6. 人才流失
Transformer八位作者全部離開
頂級AI人才持續流向OpenAI、Anthropic等
創業公司吸引力更大
戰略困境的本質
播客的核心觀點:
"這是有史以來最引人入勝的創新者困境案例。"
Larry和Sergey控制著公司。他們多次被引用說寧愿破產也不愿在AI上失敗。
但他們真的會嗎?
如果AI不像搜索那樣是個好生意——雖然感覺當然會是,當然必須是;僅僅因為它創造的巨大價值——如果不是,他們在兩個結果之間選擇:
實現我們的使命:組織世界信息,使其普遍可訪問和有用
擁有世界上最賺錢的科技公司
哪一個會贏?
因為如果只是使命,他們應該在AI模式上比現在激進得多,完全轉向Gemini。
這是一根非常難以穿過的針。
第九章:未來展望
Google正在做對的事情
"如果看所有大型科技公司,Google——盡管事情的開始看起來多么不太可能——可能是目前在AI上嘗試穿針引線做得最好的。"
"這對Sundar和他們的領導層來說令人難以置信地值得贊揚。"
他們在做艱難的決定:
統一DeepMind和Brain
整合并標準化為一個模型
快速發布產品
同時不做魯莽的決定
"快速但不魯莽(Rapid but not rash)。"
戰略建議
1. 繼續大膽整合
堅持Gemini統一戰略
保持快速迭代節奏
不要因短期壓力動搖
2. 探索新變現模式
AI廣告新形式
個性化服務付費
企業解決方案深化
3. 激活創新文化
保持工程師創新DNA
延續"寧愿舍利潤也不輸AI"的初心
鼓勵內部實驗和冒險
4. 利用全棧優勢
硬件+模型+數據+分發的閉環
構建AI時代的平臺終局
基礎設施領先性轉化為產品優勢
5. 務實預期管理
不再追求"獨占性市場"
憑借規模優勢仍可長期勝出
接受多極競爭的新常態
6. 主動預判風險
警惕"溫水煮青蛙"
持續監控AI替代搜索的進度
戰略創新而非被動應對
25年前,Larry Page說:
"人工智能將是Google的終極版本。如果我們有終極搜索引擎,它將理解網絡上的一切,理解你想要什么,并給你正確的東西。這顯然是人工智能。我們現在還遠未做到。但我們可以逐步接近,這基本上就是我們在這里工作的內容。"
那是2000年。
今天,Google擁有世界上最好的AI模型之一、最強的AI芯片、最大規模的云基礎設施、以及數十億用戶的分發渠道。
但他們也面臨著有史以來最經典的創新者困境:
發明了改變世界的技術(Transformer)
看著自己培養的人才創建競爭對手(OpenAI、Anthropic)
擁有最好的資源卻被自己的成功束縛
必須在保護現金牛和擁抱未來之間做出選擇
這將是商業史上最引人入勝的案例研究之一。
Google能否成功穿過這根針?
能否在不犧牲搜索業務的情況下贏得AI時代?
能否證明在位者也可以主導下一個時代?
答案將在接下來幾年揭曉。
而無論結果如何,Google AI編年史已經告訴我們:
有時候,發明未來和擁有未來,是兩件截然不同的事。
關鍵時間線
核心人物
lovart制圖技術里程碑解釋
lovart制圖
整理:周華香
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.