編輯|澤南、楊文
沒想到這次大面積市場(chǎng)震蕩,還引出了學(xué)術(shù)大瓜。
本周五晚,谷歌的學(xué)術(shù)不端事件成為了 AI 圈的焦點(diǎn)。
來自蘇黎世聯(lián)邦理工學(xué)院(ETH Zurich)的博士后高健揚(yáng)在知乎發(fā)布文章,表示 Google Research 論文「TurboQuant: Online Vector Quantization with Near-optimal Distortion Rate」中,有關(guān)已有的 RaBitQ 向量量化算法的描述、理論結(jié)果對(duì)比、實(shí)驗(yàn)對(duì)比均存在嚴(yán)重問題,且相關(guān)問題早在論文投稿前便已被明確指出,卻被作者方刻意忽視。
![]()
作為能夠干翻一片「主線」邏輯公司的 AI 研究,TurboQuant 在業(yè)界的含金量似乎毋庸置疑。然而誰能想到,這篇被谷歌推上神壇、擁有千萬級(jí)曝光量的 ICLR 頂會(huì)論文,其最核心的技術(shù)底座卻深陷「抄襲」疑云。
引發(fā)內(nèi)存股震蕩的 TurboQuant
谷歌的 TurboQuant 論文最近火出了 AI 研究領(lǐng)域,這篇被全球 AI 研究頂會(huì) ICLR 2026 接收的論文介紹了一種壓縮算法,聲稱能夠?qū)⒋笳Z言模型的 KV 緩存內(nèi)存占用減少至少 6 倍,速度提升高達(dá) 8 倍,且精度零損失
TurboQuant 于 2025 年 4 月公開于預(yù)印版論文平臺(tái) arXiv 上,2026 年 1 月被 ICLR 2026 接收,3 月 24 日經(jīng)谷歌研究博客介紹引發(fā)了巨量關(guān)注。
![]()
谷歌在 X 上的宣傳貼瀏覽量達(dá)到了上千萬。
在 AI 大模型的推理時(shí),AI 每次生成一個(gè)新詞都需要「回顧」對(duì)話歷史(上下文),這部分內(nèi)容被存儲(chǔ)于 KV 緩存上。因此,KV 緩存占用的內(nèi)存往往會(huì)成為限制大模型速度和成本的最大瓶頸。TurboQuant 提出的極限無損壓縮方法效果驚人,由于能夠大幅降低運(yùn)行大模型所需的硬件資源,它直接沖擊了市場(chǎng)對(duì)內(nèi)存芯片爆發(fā)式增長(zhǎng)的預(yù)期。
在谷歌博客發(fā)布的當(dāng)天,美國(guó)內(nèi)存股集體暴跌,閃迪一度跌 6.5%,希捷科技跌超 5%,西部數(shù)據(jù)跌超 4%,美光科技跌 4%。市場(chǎng)一天蒸發(fā)的市值超過了 900 億美元
![]()
這項(xiàng)被谷歌大肆宣傳的技術(shù)到底是怎么做到的?簡(jiǎn)單來說,它用一套精妙的方法解決了內(nèi)存消耗的死結(jié)。
TurboQuant 通過兩階段壓縮實(shí)現(xiàn)這一目標(biāo):第一階段利用「隨機(jī)旋轉(zhuǎn)」和 PolarQuant 機(jī)制將高維向量映射到極坐標(biāo),實(shí)現(xiàn)極限壓縮;第二階段利用 Quantized Johnson-Lindenstrauss (QJL) 變換,使用僅 1 bit 的空間來修正內(nèi)積計(jì)算的偏差。
然而,正是這部分技術(shù),成為了引爆學(xué)術(shù)丑聞的導(dǎo)火索。
ETH Zurich 的高健揚(yáng)博士列舉證據(jù)表示,這項(xiàng)被谷歌宣傳的「革命性」核心機(jī)制并非谷歌首創(chuàng),其在兩年前就已經(jīng)被他的團(tuán)隊(duì)完整提出。
更令人氣憤的是,谷歌在其論文中刻意「回避」和「淡化」了先行技術(shù)。
RaBitQ 作者公開質(zhì)疑:
TurboQuant 的核心方法,兩年前就有
RaBitQ 系列論文于 2024 年發(fā)表,提出了一種高維向量量化方法,并從理論上證明其達(dá)到了理論計(jì)算機(jī)頂級(jí)會(huì)議論文給出的漸近最優(yōu)誤差界。
RaBitQ 和擴(kuò)展版分別發(fā)表于頂級(jí)會(huì)議 SIGMOD 2024 和 SIGMOD 2025。
![]()
RaBitQ 的核心思路之一,是在量化前對(duì)輸入向量施加隨機(jī)旋轉(zhuǎn)(random rotation / Johnson-Lindenstrauss 變換),利用旋轉(zhuǎn)后坐標(biāo)分布的性質(zhì)做向量量化,在理論上實(shí)現(xiàn)最優(yōu)誤差界。
而 TurboQuant 的方法核心同樣是在量化前對(duì)輸入向量施加隨機(jī)旋轉(zhuǎn)(Johnson-Lindenstrauss 變換),這一點(diǎn),甚至是 TurboQuant 作者自己在 ICLR 審稿回復(fù)中親口描述的。
![]()
然而,TurboQuant 論文全程刻意回避了與 RaBitQ 在方法上的直接關(guān)聯(lián),反而在正文中將 RaBitQ 描述為 grid-based PQ,并且在描述中忽略了 RaBitQ 中核心的 random rotation 步驟,有意模糊兩者之間的傳承關(guān)系。
TurboQuant 的第二作者 Majid Daliri 早在 2025 年 1 月便曾主動(dòng)聯(lián)系高健揚(yáng),請(qǐng)求協(xié)助調(diào)試其自行用 Python 復(fù)現(xiàn)的 RaBitQ 代碼,這說明 TurboQuant 團(tuán)隊(duì)對(duì) RaBitQ 的技術(shù)細(xì)節(jié)知之甚詳。
既然早已知曉并請(qǐng)教過原作者,為何在最終的論文中不進(jìn)行合理的引用和客觀對(duì)比?
高健揚(yáng)團(tuán)隊(duì)在發(fā)現(xiàn)這些問題后本著學(xué)術(shù)嚴(yán)謹(jǐn)?shù)膽B(tài)度,從 2025 年 5 月起就通過郵件與 TurboQuant 團(tuán)隊(duì)進(jìn)行了多次私下溝通,并明確指出了其中的事實(shí)性錯(cuò)誤。
然而 TurboQuant 團(tuán)隊(duì)以「隨機(jī)旋轉(zhuǎn)已成為領(lǐng)域標(biāo)準(zhǔn)技術(shù),無法引用每一個(gè)使用它的方法」為由拒絕修正。隨后,這篇論文不僅被推上了 ICLR 2026,還成為了全球關(guān)注的焦點(diǎn)。
這樣的學(xué)術(shù)敘事如果不被糾正,就會(huì)逐漸成為共識(shí)。高健揚(yáng)團(tuán)隊(duì)最終下場(chǎng)列出了幾項(xiàng)指控。
三項(xiàng)具體指控
高健揚(yáng)在文章中列出了三項(xiàng)具體問題。
第一,系統(tǒng)性回避技術(shù)相似性。
TurboQuant 不僅未能正面討論兩者方法的結(jié)構(gòu)聯(lián)系,反而還將原本正文中對(duì) RaBitQ 不完整描述移到了附錄中,這一舉動(dòng)甚至發(fā)生在審稿人已明確指出「RaBitQ and variants are similar to TurboQuant in that they all use random projection」并要求充分討論之后。
TurboQuant 作者回復(fù)稱「隨機(jī)旋轉(zhuǎn)和 Johnson-Lindenstrauss 變換的使用已經(jīng)是該領(lǐng)域的標(biāo)準(zhǔn)技術(shù),我們不可能引用每一篇使用了這些方法的論文」。
高健揚(yáng)團(tuán)隊(duì)認(rèn)為這一回應(yīng)是在轉(zhuǎn)移矛盾:作為在相同問題設(shè)定下率先將隨機(jī)旋轉(zhuǎn)(Johnson-Lindenstrauss 變換)與向量量化結(jié)合、并建立最優(yōu)理論保證的具體先行工作,RaBitQ 應(yīng)當(dāng)在文中被準(zhǔn)確描述,其與 TurboQuant 方法的聯(lián)系應(yīng)當(dāng)充分討論。
第二,錯(cuò)誤描述 RaBitQ 的理論結(jié)果。
TurboQuant 論文將 RaBitQ 的理論保證定性為「次優(yōu)(suboptimal)」,并歸因于「較粗糙的分析(loose analysis)」,卻未給出任何推導(dǎo)、對(duì)比或證據(jù)。
事實(shí)是在拓展版 RaBitQ 論文(arXiv:2409.09913)的 Theorem 3.2 中,已經(jīng)嚴(yán)格證明 RaBitQ 的誤差界達(dá)到了理論計(jì)算機(jī)頂級(jí)會(huì)議論文(Alon-Klartag, FOCS 2017)給出的漸近最優(yōu)誤差界。因?yàn)檫@一結(jié)果,高健揚(yáng)團(tuán)隊(duì)被邀請(qǐng)至理論計(jì)算機(jī)科學(xué)頂級(jí)會(huì)議 FOCS 的 Workshop 進(jìn)行報(bào)告。
2025 年 5 月,高健揚(yáng)團(tuán)隊(duì)與 TurboQuant 的第二作者 Majid Daliri 進(jìn)行了多輪詳細(xì)的郵件技術(shù)討論,逐條澄清了這一錯(cuò)誤解讀,Majid Daliri 也明確表示已告知全體共同作者。然而這一錯(cuò)誤定性在論文經(jīng)歷完整審稿、被接收乃至大規(guī)模宣發(fā)的全過程中,始終未被更正。
第三,刻意制造不公平的實(shí)驗(yàn)條件。
TurboQuant 論文測(cè)試 RaBitQ 速度時(shí),既未使用官方開源的 C++ 實(shí)現(xiàn),轉(zhuǎn)而用了 Majid Daliri 自己翻譯的 Python 版本,又將 RaBitQ 限制在單核 CPU、關(guān)閉多線程的條件下運(yùn)行,而 TurboQuant 自身則使用 NVIDIA A100 GPU 進(jìn)行測(cè)試。這兩層系統(tǒng)性的不公平條件均未在論文中明確披露。
Majid Daliri 本人在 2025 年 5 月的郵件中曾承認(rèn)了單核限制這一情況,但論文仍將由此得出的「RaBitQ 比 TurboQuant 慢數(shù)個(gè)數(shù)量級(jí)」的結(jié)論呈現(xiàn)給讀者,卻未附任何說明。
選擇公開發(fā)聲
高健揚(yáng)表示,他們?cè)?2025 年 11 月便發(fā)現(xiàn) TurboQuant 提交了 ICLR 2026,隨即聯(lián)系 ICLR Program Committee Chairs,但未獲任何回應(yīng)。
2026 年 1 月論文正式被接收后,谷歌開始通過官方渠道大規(guī)模推廣,相關(guān)內(nèi)容在社交媒體上的瀏覽量迅速達(dá)到數(shù)千萬次。
2026 年 3 月,高健揚(yáng)團(tuán)隊(duì)再次正式致函 TurboQuant 全體作者,要求說明與更正。目前收到的回復(fù)來自第一作者 Amir Zandieh,承諾會(huì)在 ICLR 會(huì)議正式結(jié)束后修正問題二和問題三,但拒絕就技術(shù)相似性問題作出任何討論。
高健揚(yáng)已在 ICLR OpenReview 平臺(tái)發(fā)布公開評(píng)論,并向 ICLR General Chairs、PC Chairs 及 Code and Ethics Chairs 提交了包含完整證據(jù)的正式投訴,同時(shí)表示將在 arXiv 發(fā)布關(guān)于 TurboQuant 和 RaBitQ 的詳細(xì)技術(shù)報(bào)告,并保留進(jìn)一步向相關(guān)機(jī)構(gòu)反映的選項(xiàng)。
![]()
他在文末寫道:「一篇論文被 Google 以數(shù)千萬曝光量推向公眾,在這種體量下,論文中錯(cuò)誤的敘事不需要主動(dòng)傳播,只需要不被糾正,就會(huì)自動(dòng)成為共識(shí)。
目前,高健揚(yáng)等人的主張得到了很多人的支持。
![]()
![]()
很多人表示,谷歌在 AI 研究上這樣的做法已經(jīng)不是第一次了。
或許谷歌與 ICLR 官方需要給出解釋。
參考內(nèi)容:
https://zhuanlan.zhihu.com/p/2020969476166808284
https://x.com/gaoj0017/status/2037532673812443214
https://openreview.net/forum?id=tO3ASKZlok
https://research.google/blog/turboquant-redefining-ai-efficiency-with-extreme-compression/
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.