![]()
機(jī)器之心編輯部
一篇 AI 論文,能否同時引發(fā)學(xué)術(shù)爭議與 900 億美元市值震蕩?
上周末,我們報道了血洗內(nèi)存股 900 億刀的谷歌 AI 論文涉嫌學(xué)術(shù)不端。指控的核心在于,TurboQuant 團(tuán)隊涉嫌隱瞞核心技術(shù)借鑒、錯誤貶低先行研究,并在實驗中進(jìn)行極度不公平的硬件對比。
隨著輿論發(fā)酵,TurboQuant 的作者團(tuán)隊在 OpenReview 平臺上做出了公開回應(yīng),第二作者 Majid Daliri 發(fā)布了一份分為四點的「技術(shù)澄清」。
![]()
https://openreview.net/forum?id=tO3ASKZlok
具體回應(yīng)內(nèi)容如下:
1、核心創(chuàng)新 vs. 標(biāo)準(zhǔn)技術(shù):TurboQuant 并未將其核心方法建立在 RaBitQ 之上。Random rotation 是量化領(lǐng)域中一種標(biāo)準(zhǔn)且廣泛使用的技術(shù),其出現(xiàn)時間早于 RaBitQ 的公開發(fā)布,例如在一些已有工作中已經(jīng)被采用,如https://arxiv.org/pdf/2307.13304、https://arxiv.org/pdf/2404.00456、https://arxiv.org/pdf/2306.11987。TurboQuant 的真正創(chuàng)新在于:我們推導(dǎo)出了旋轉(zhuǎn)后向量各坐標(biāo)所遵循的精確分布,并利用這一結(jié)果實現(xiàn)了最優(yōu)的逐坐標(biāo)量化。
2、關(guān)于 RaBitQ 最優(yōu)性的修正:盡管 RaBitQ 的最優(yōu)性可以從其內(nèi)部證明中推導(dǎo)出來,但論文的主定理表明其失真誤差界按某種形式進(jìn)行縮放。由于指數(shù)項中存在一個隱藏的常數(shù)因子,該因子可能導(dǎo)致誤差呈指數(shù)級放大,因此該形式化表述并未顯式保證最優(yōu)界。這也是我們最初將該方法描述為次優(yōu)的原因。
然而,在對其附錄進(jìn)行仔細(xì)分析后,我們發(fā)現(xiàn)實際上可以推出一個嚴(yán)格的誤差界。既然這一最優(yōu)性已經(jīng)由其更深入的證明所支持,我們正在更新 TurboQuant 的論文手稿,以更準(zhǔn)確地標(biāo)注并致謝其理論界限。
3、實驗基準(zhǔn)的重要性:運行時基準(zhǔn)對于我們的研究結(jié)論而言并不關(guān)鍵。TurboQuant 的主要貢獻(xiàn)集中在壓縮率與模型質(zhì)量之間的權(quán)衡,而非特定的加速效果。本工作的價值在于:在極高壓縮率下仍能保持模型精度。即使完全移除與 RaBitQ 的運行時間對比,本論文的科學(xué)意義與有效性也基本不會受到影響。
4、關(guān)于時間節(jié)點的說明:TurboQuant 自 2025 年 4 月起已在 arXiv 上公開發(fā)布,其作者之一在此之前就已與 RaBitQ 作者進(jìn)行過溝通(這一點也已被 RaBitQ 作者承認(rèn))。盡管對方有將近一年的時間可以通過學(xué)術(shù)渠道提出這些技術(shù)問題,但相關(guān)質(zhì)疑是在 TurboQuant 獲得廣泛關(guān)注之后才被提出。
然而,這份回應(yīng)不僅沒能平息爭議,反而像是在火上澆油,引發(fā)了學(xué)術(shù)社區(qū)和開發(fā)者群體更強(qiáng)烈的反彈與吐槽。
- 把關(guān)鍵技術(shù)「降級」為行業(yè)常識
首先,針對「隱瞞核心技術(shù)相似性」的指控,即 TurboQuant 同樣使用了 RaBitQ 論文中標(biāo)志性的「隨機(jī)旋轉(zhuǎn)(Johnson-Lindenstrauss 變換)」作為第一階段量化的核心,Daliri 的回應(yīng)是:隨機(jī)旋轉(zhuǎn)在量化文獻(xiàn)中是一項極其標(biāo)準(zhǔn)且無處不在的技術(shù),早在 RaBitQ 出現(xiàn)之前就有了。他們強(qiáng)調(diào),TurboQuant 的「真正創(chuàng)新」在于推導(dǎo)出了旋轉(zhuǎn)向量坐標(biāo)的具體分布(Beta 分布),并據(jù)此實現(xiàn)了最優(yōu)的逐坐標(biāo)量化。
這種說法在字面上沒毛病,畢竟誰也不能給一個基礎(chǔ)數(shù)學(xué)變換申請專利。但同行們吐槽的點在于,把別人在相同特定場景(向量量化)下率先組合使用的核心步驟輕描淡寫地歸結(jié)為「行業(yè)標(biāo)配」,然后將順理成章的分布推導(dǎo)包裝成自己的「核心創(chuàng)新」,多少顯得有些不夠厚道。
![]()
- 核心理論評價,建立在「沒看清附錄」之上
其次,關(guān)于「錯誤貶低 RaBitQ 理論結(jié)果」的問題。TurboQuant 曾在正文中將 RaBitQ 的理論保證定性為「次優(yōu)」和「分析粗糙」。面對原作者的對質(zhì),Daliri 倒是坦率地認(rèn)了錯。他解釋說,因為 RaBitQ 論文主定理的指數(shù)中隱藏了一個常數(shù)因子,導(dǎo)致他們最初認(rèn)為這會產(chǎn)生指數(shù)級誤差,所以給出了「客觀的次優(yōu)評價」。但在仔細(xì)研究了對方的附錄后,他們發(fā)現(xiàn) RaBitQ 確實達(dá)到了嚴(yán)格的最優(yōu)界限,并承諾會在最終版手稿中更正。
雖然態(tài)度誠懇,但這段回應(yīng)依然讓人感到一點荒謬。一篇被谷歌官方博客數(shù)千萬次曝光的 ICLR 頂會論文,其對同行競品的核心評價,竟然是因為「沒仔細(xì)看附錄」而得出的草率結(jié)論。更何況,RaBitQ 團(tuán)隊早在近一年前的郵件溝通中就已經(jīng)指出了這個理論誤讀,而 TurboQuant 團(tuán)隊硬是拖到事情在社交媒體上鬧大、影響了納斯達(dá)克指數(shù)之后,才「恍然大悟」地表示要修改。
- 最具爭議的,是「硬件對比」這一環(huán)
第三點回應(yīng)則徹底點燃了社區(qū)的情緒。RaBitQ 團(tuán)隊指控 TurboQuant 在對比運行速度時,用自己的 NVIDIA A100 GPU 去碾壓被限制在單核 CPU 且關(guān)閉多線程的 RaBitQ Python 翻譯版代碼(這段 Python 代碼甚至還是 TurboQuant 作者自己寫完找原作者幫忙 debug 的)。面對如此實錘的「田忌賽馬」式跑分造假,Daliri 的回應(yīng)令人嘆為觀止:他表示「運行時基準(zhǔn)測試對我們的研究結(jié)果無關(guān)緊要」。
按照 TurboQuant 團(tuán)隊的邏輯,他們的主要貢獻(xiàn)在于壓縮質(zhì)量的權(quán)衡,而不是具體的加速比,因此就算把和 RaBitQ 的速度對比全刪了,也不影響論文的科學(xué)價值。評論區(qū)質(zhì)疑如果不重要,當(dāng)初又何必處心積慮地搞出一套不對等的硬件測試,并把「速度碾壓對手」的結(jié)論堂而皇之地寫進(jìn)論文里呢?
最后,Daliri 還在回應(yīng)中抱怨了原作者的「發(fā)難時機(jī)」,聲稱 TurboQuant 從 2025 年 4 月就在 arXiv 上公開了,RaBitQ 作者明明有一年的時間通過學(xué)術(shù)渠道溝通,卻偏偏等到論文獲得廣泛關(guān)注后才出來指責(zé)。這不僅完全無視了 RaBitQ 團(tuán)隊提供的「2025 年 5 月私下溝通郵件記錄」,還隱隱流露出一股「你就是想蹭我熱度」的幽怨。
![]()
在 OpenReview 平臺上,當(dāng)初給 TurboQuant 打出高分的審稿人站出來表達(dá)了強(qiáng)烈的不滿。這位審稿人明確指出,他在評審階段就已經(jīng)察覺到了兩者的相似性,并「強(qiáng)烈建議」作者在正文中充分討論 TurboQuant 與 RaBitQ 在設(shè)計選擇上的差異。然而,作者們在最終的 Camera-ready 中不僅沒有進(jìn)行有意義的探討,反而僅僅在實驗部分提了一次 RaBitQ,甚至把原本正文中對 RaBitQ 已經(jīng)很不完整的描述直接塞進(jìn)了附錄。
![]()
更讓社區(qū)感到不適的是這背后折射出的大廠傲慢。一位研究者在公開評論中指出,這是一個令人沮喪的現(xiàn)狀:做基礎(chǔ)奠基性工作的獨立研究者或?qū)W術(shù)團(tuán)隊往往無人問津,而手握巨大影響力的科技巨頭(如谷歌)只需將這些底層邏輯稍微包裝一下,配合強(qiáng)大的 PR 機(jī)器,就能瞬間打造出一個「革命性突破」的學(xué)術(shù)神話,甚至能以此撬動百億美元的股票市場。
![]()
在這個過程中,如果不是原作者頂著壓力、拿著詳實的郵件記錄和代碼證據(jù)出來「剛正面」,那些被刻意淡化的技術(shù)傳承、被錯誤定性的理論成果、以及單核 CPU 戰(zhàn)頂級 GPU 的荒誕對比,就會在大廠千萬級的曝光量下固化為新的「行業(yè)常識」。
正如 RaBitQ 一作高健揚在聲明文末所寫:「一篇論文被 Google 以數(shù)千萬曝光量推向公眾,在這種體量下,論文中錯誤的敘事不需要主動傳播,只需要不被糾正,就會自動成為共識。
![]()
縱觀整起事件,TurboQuant 在技術(shù)層面確實為 LLM 的內(nèi)存優(yōu)化提供了一個極具商業(yè)價值的工程解法,這也許是它能被 ICLR 接收并在工業(yè)界引發(fā)地震的原因。
然而,科學(xué)研究從來都是建立在同行間誠實、透明的交流與接力之上。當(dāng)「跑分造假」可以被輕描淡寫地解釋為「與核心結(jié)論無關(guān)」,當(dāng)「忽視先行研究」可以用「行業(yè)慣例」來搪塞,這傷害的不僅僅是某一個學(xué)術(shù)團(tuán)隊的感情,更是整個 AI 研究社區(qū)賴以生存的信任基石。
![]()
這場風(fēng)波目前仍在發(fā)酵,而它留給學(xué)術(shù)界和工業(yè)界的反思,恐怕比那 900 億美元的股市震蕩要深遠(yuǎn)得多。
參考鏈接:https://www.reddit.com/r/MachineLearning/comments/1s8yni2/d_turboquant_author_replies_on_openreview/
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.