![]()
如果不是谷歌 TurboQuant 的搞了這樣一場鬧劇,我都沒發現我們忍 AI 這么久了。
這個月的 24 號,谷歌研究院(Google Research)突然發帖,詳細介紹一項名為 TurboQuant 的極端壓縮算法。
![]()
這篇帖子非常簡單地總結了 TurboQuant 這個算法的用處 —— 它能把大模型推理時的 KV cache 內存壓縮到 3.5 bit(約 6 倍),而且幾乎不丟精度。
翻譯成人話就是,谷歌研究院介紹了一種算法,能大幅度減少大模型對于內存的消耗了,以前用 600G 內存才能搞定的事兒,用上這個算法后只要 100G 就行了!
![]()
第二天,原本還在吃著火鍋唱著歌的幾個存儲大廠,股價應聲下跌。
美光科技股價下跌3.4%,市值損失151.66億美元,閃迪(SanDisk)股價一度大跌6.5%,收盤時跌幅收窄至3.5%,市值損失36.3億美元。西部數據(Western Digital)下跌1.63%,市值損失16.64億美元。
圖表來源:新浪財經
![]()
整個 AI 圈都炸開了鍋,大家都紛紛開始分析,TurboQuant 到底厲害在哪里,又是怎么影響
![]()
就連 Claudflare 的 CEO 都發文評價說,這是谷歌的 DeepSeek 時刻。
![]()
很多差友看到這個消息,可能要在被窩里笑出聲了:干的漂亮!接下來的內存、固態硬盤,是不是也得跟著跌了?咱們攢機黨是不是終于熬出頭了?
我當然也希望事情往這個方面發展。
為了搞清楚咱這個最樸實的愿望能不能實現,我還特地去做了點功課,學習了下 TurboQuant 到底是個什么東西。
結果還沒等我搞明白這個 TurboQuant 到底怎么個Turbo 法,事情就迎來了180° 的大反轉 ——
3月27號晚上10點,蘇黎世聯邦理工學院的博士后高健揚,在知乎、X 和 ICLR 評審平臺上同步發文,指控當初 谷歌用來介紹 TurboQuant 算法的論文學術存在嚴重的學術不端。
![]()
高博士發現,谷歌的 TurboQuant ,跟自己團隊搞的 RaBitQ 算法高度撞車,底層都用了“隨機旋轉加JL變換”。
![]()
要說英雄所見略同也就罷了,但離譜的是,高博士甩出的郵件證明早在2025年1月,谷歌這篇論文的二作 Majid 就專門發郵件,低聲下氣地找高博士求助怎么跑通 RaBitQ 的代碼。
這就不對了,谷歌這樣的做法,算不算是把人家底細都摸透了,卻在勝利結算的時候決口不提別人干了啥呢?
光掩蓋來源還不算,谷歌的 Turbo Quant 團隊甚至無視既定的數學證明,直接在論文里空口白牙地硬踩高博士的理論。
![]()
高博士認為自己的 RaBitQ 的算法,已經被嚴格證明達到了理論計算機頂會級別的一流標準。
結果 TurboQuant 團隊連推導都不看,在毫無證據的情況下,直接在正文里給高博士蓋了個“理論次優、分析粗糙”的帽子。
但最讓人繃不住的,是谷歌那堪稱“魔幻”的跑分雙標。
論文里吹牛說自家算法比 RaBitQ 快了幾個數量級,但背后的暗箱操作極其下作:
![]()
谷歌給自己配的是算力怪獸 A100 GPU,給對手安排的卻是關掉了多線程的 CPU。
而且他們放著人家現成的、高度優化的 C++ 開源代碼不用,非要用TurboQuant 論文二作自己半吊子翻譯的 Python 版本去跑,給高博士的算法又疊了一層debuff。
![]()
在去年5月的郵件里,這篇論文的二作作者親口承認了這種 “ 單核打多核” 的非對稱操作,也承認把這事同步給了論文的其他共同作者。
但在最終發表的論文里,這兩層能引發量變級差異的軟硬件信息,被抹得干干凈凈。
![]()
同時 TurboQuant 論文的作者也拒絕承認自己的算法跟高博士的 RabitQ 在結構上相似。
這篇帶有硬性錯誤的論文,被 ICLR 2026 會議接收,再后來,就有了我們開頭說的故事,通過谷歌研究院官方渠道大規模推廣這篇論文。
谷歌研究院只提到了TurboQuant 有多厲害,能節省多少內存,但只字未提支撐 TurboQuant 的這篇論文本身的種種錯誤。
這些推廣,在社交媒體瀏覽量已達到數千萬次,于是便有了上周幾個頭部存儲廠商的股市震蕩。
高博士估計也是實在是看不下去了,才選擇發文公開實錘了。
隨即存儲市場這邊,也逐漸從第一波震蕩中緩過神來了。
Amir Zandieh回高博士郵件的當天,美光科技(MU)當日收高 0.5%,成交額 162.46 億美元,但本周累計仍下跌 15.5%。
![]()
我不知道差友們聽完這段故事,是啥感覺。
我是覺得自己像個瓜田里反應遲鈍的那個猹,看著同伴們吃完這個瓜,已經要去吃下一個了,正發愁自己要掉隊了。
結果一轉身就發現猹哥們已經在噴射了 —— 這瓜,有毒。
更讓人想不通的事,這篇存在明顯錯誤的爭議論文,隔了一年才被谷歌放出來做宣傳,可直到高博士站出來錘谷歌之前,我們好像也沒聽到誰站出來質疑。
市場不語,只是震蕩;所謂的 AI 圈也只是狂歡 —— 終于有人能治一治 AI 大模型狂吃內存的毛病了。
為數不多還保持理智的分析機構和國內自媒體,也只是指出這事兒完全符合華爾街老提的“杰文斯悖論”:
![]()
TurboQuant 確實把長文本推理的成本打下來了,但門檻一低,廠商們絕對會放開手腳去搞開發 ——
現在國產模型上下文窗口的主流標準是 200K-256K,少數能做到1M。
但是國外主流模型已經能夠做到 1M 了。你們說有了這套算法之后國外的模型會不會想著擴大優勢,國產模型會不會想著奮起直追?
到時候各種多模態、長上下文的應用大批量上線,因為更好用導致用的人和場景成倍增加,全球真正需要的算力和存儲硬件不僅省不下來,反而還會被巨大的需求量直接拉爆。
但質疑 TurboQuant 是不是真的這么厲害的聲音,好像被蓋過去了。相當于是很大一部分人,不加考證,也不去了解學術圈內的實際情況,默認了谷歌的這個 TurboQuant 確實能改變世界。
當然啦,我這樣說并不是為了批判誰,因為我自己在剛看到 TurboQuant 的報道時,也高興得跟孩子似的。
我想點明的是,谷歌 TurboQuant 的這場鬧劇,暴露了大家對 AI 的不耐煩:
為了養AI這個硬件吞金獸,我們已經忍受了太多。
去年年底開始,就連手機這種幾乎人手一臺的電子產品,也因為內存漲價而漲價。
圖表來源“鋅刻度”李覲麟
![]()
這時候,事情的性質就變了 —— 昂貴的 AI 終于還是要所有人一起來買單了。
而諷刺的是,至今都沒有人能說清楚,AI 到底能帶來多大的生產力,能帶來多大的便利。
今年早些時候 Anthropic 發布了一份關于AI對勞動力市場影響的重磅研究。
研究顯示,到目前為止還是只有個別職業的人在用AI,而且 AI 在他們工作中的滲透率也沒有想象中那么高。
圖表來源:Anthropic
![]()
就是這么一個行業真實滲透率不高、只在幫少數人賺錢、實際上沒那么好用的產品,它帶來的負面影響 正在讓全社會買單。。。
這個時候,但凡有個消息告訴我,現在有個東西能讓 AI 胃口變小一點,不要再帶著我漲價了 —— 那我肯定希望這個消息是真的 。
這可能也是為啥,一篇存在錯誤的論文,一個沒有投入商用的算法,能掀起一場這么大風波。
然而可惜的是,這一切最終被證實,只是一場烏龍。
撰文:施昂
編輯:早起&米羅
美編:素描
圖片、資料來源:X@GoogleResearch、@Jianyang Gao、@Matthew Prince、東方財富、
-搜狐
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.