TurboQuant團隊學術不端?谷歌回應了,但爭議更大了

TurboQuant團隊學術不端?谷歌回應了,但爭議更大了

文章圖片

TurboQuant團隊學術不端?谷歌回應了,但爭議更大了

文章圖片

TurboQuant團隊學術不端?谷歌回應了,但爭議更大了

文章圖片

TurboQuant團隊學術不端?谷歌回應了,但爭議更大了

文章圖片


機器之心編輯部
一篇 AI 論文 , 能否同時引發學術爭議與 900 億美元市值震蕩?
上周末 , 我們報道了血洗內存股 900 億刀的谷歌 AI 論文涉嫌學術不端 。 指控的核心在于 , TurboQuant 團隊涉嫌隱瞞核心技術借鑒、錯誤貶低先行研究 , 并在實驗中進行極度不公平的硬件對比 。
隨著輿論發酵 , TurboQuant 的作者團隊在 OpenReview 平臺上做出了公開回應 , 第二作者 Majid Daliri 發布了一份分為四點的「技術澄清」 。

https://openreview.net/forum?id=tO3ASKZlok
具體回應內容如下:
1、核心創新 vs. 標準技術:TurboQuant 并未將其核心方法建立在 RaBitQ 之上 。 Random rotation 是量化領域中一種標準且廣泛使用的技術 , 其出現時間早于 RaBitQ 的公開發布 , 例如在一些已有工作中已經被采用 , 如https://arxiv.org/pdf/2307.13304、https://arxiv.org/pdf/2404.00456、https://arxiv.org/pdf/2306.11987 。 TurboQuant 的真正創新在于:我們推導出了旋轉后向量各坐標所遵循的精確分布 , 并利用這一結果實現了最優的逐坐標量化 。
2、關于 RaBitQ 最優性的修正:盡管 RaBitQ 的最優性可以從其內部證明中推導出來 , 但論文的主定理表明其失真誤差界按某種形式進行縮放 。 由于指數項中存在一個隱藏的常數因子 , 該因子可能導致誤差呈指數級放大 , 因此該形式化表述并未顯式保證最優界 。 這也是我們最初將該方法描述為次優的原因 。
然而 , 在對其附錄進行仔細分析后 , 我們發現實際上可以推出一個嚴格的誤差界 。 既然這一最優性已經由其更深入的證明所支持 , 我們正在更新 TurboQuant 的論文手稿 , 以更準確地標注并致謝其理論界限 。
3、實驗基準的重要性:運行時基準對于我們的研究結論而言并不關鍵 。 TurboQuant 的主要貢獻集中在壓縮率與模型質量之間的權衡 , 而非特定的加速效果 。 本工作的價值在于:在極高壓縮率下仍能保持模型精度 。 即使完全移除與 RaBitQ 的運行時間對比 , 本論文的科學意義與有效性也基本不會受到影響 。
4、關于時間節點的說明:TurboQuant 自 2025 年 4 月起已在 arXiv 上公開發布 , 其作者之一在此之前就已與 RaBitQ 作者進行過溝通(這一點也已被 RaBitQ 作者承認) 。 盡管對方有將近一年的時間可以通過學術渠道提出這些技術問題 , 但相關質疑是在 TurboQuant 獲得廣泛關注之后才被提出 。
然而 , 這份回應不僅沒能平息爭議 , 反而像是在火上澆油 , 引發了學術社區和開發者群體更強烈的反彈與吐槽 。
把關鍵技術「降級」為行業常識首先 , 針對「隱瞞核心技術相似性」的指控 , 即 TurboQuant 同樣使用了 RaBitQ 論文中標志性的「隨機旋轉(Johnson-Lindenstrauss 變換)」作為第一階段量化的核心 , Daliri 的回應是:隨機旋轉在量化文獻中是一項極其標準且無處不在的技術 , 早在 RaBitQ 出現之前就有了 。 他們強調 , TurboQuant 的「真正創新」在于推導出了旋轉向量坐標的具體分布(Beta 分布) , 并據此實現了最優的逐坐標量化 。
這種說法在字面上沒毛病 , 畢竟誰也不能給一個基礎數學變換申請專利 。 但同行們吐槽的點在于 , 把別人在相同特定場景(向量量化)下率先組合使用的核心步驟輕描淡寫地歸結為「行業標配」 , 然后將順理成章的分布推導包裝成自己的「核心創新」 , 多少顯得有些不夠厚道 。

核心理論評價 , 建立在「沒看清附錄」之上其次 , 關于「錯誤貶低 RaBitQ 理論結果」的問題 。 TurboQuant 曾在正文中將 RaBitQ 的理論保證定性為「次優」和「分析粗糙」 。 面對原作者的對質 , Daliri 倒是坦率地認了錯 。 他解釋說 , 因為 RaBitQ 論文主定理的指數中隱藏了一個常數因子 , 導致他們最初認為這會產生指數級誤差 , 所以給出了「客觀的次優評價」 。 但在仔細研究了對方的附錄后 , 他們發現 RaBitQ 確實達到了嚴格的最優界限 , 并承諾會在最終版手稿中更正 。
雖然態度誠懇 , 但這段回應依然讓人感到一點荒謬 。 一篇被谷歌官方博客數千萬次曝光的 ICLR 頂會論文 , 其對同行競品的核心評價 , 竟然是因為「沒仔細看附錄」而得出的草率結論 。 更何況 , RaBitQ 團隊早在近一年前的郵件溝通中就已經指出了這個理論誤讀 , 而 TurboQuant 團隊硬是拖到事情在社交媒體上鬧大、影響了納斯達克指數之后 , 才「恍然大悟」地表示要修改 。
最具爭議的 , 是「硬件對比」這一環第三點回應則徹底點燃了社區的情緒 。 RaBitQ 團隊指控 TurboQuant 在對比運行速度時 , 用自己的 NVIDIA A100 GPU 去碾壓被限制在單核 CPU 且關閉多線程的 RaBitQ Python 翻譯版代碼(這段 Python 代碼甚至還是 TurboQuant 作者自己寫完找原作者幫忙 debug 的) 。 面對如此實錘的「田忌賽馬」式跑分造假 , Daliri 的回應令人嘆為觀止:他表示「運行時基準測試對我們的研究結果無關緊要」 。
按照 TurboQuant 團隊的邏輯 , 他們的主要貢獻在于壓縮質量的權衡 , 而不是具體的加速比 , 因此就算把和 RaBitQ 的速度對比全刪了 , 也不影響論文的科學價值 。 評論區質疑如果不重要 , 當初又何必處心積慮地搞出一套不對等的硬件測試 , 并把「速度碾壓對手」的結論堂而皇之地寫進論文里呢?
最后 , Daliri 還在回應中抱怨了原作者的「發難時機」 , 聲稱 TurboQuant 從 2025 年 4 月就在 arXiv 上公開了 , RaBitQ 作者明明有一年的時間通過學術渠道溝通 , 卻偏偏等到論文獲得廣泛關注后才出來指責 。 這不僅完全無視了 RaBitQ 團隊提供的「2025 年 5 月私下溝通郵件記錄」 , 還隱隱流露出一股「你就是想蹭我熱度」的幽怨 。

在 OpenReview 平臺上 , 當初給 TurboQuant 打出高分的審稿人站出來表達了強烈的不滿 。 這位審稿人明確指出 , 他在評審階段就已經察覺到了兩者的相似性 , 并「強烈建議」作者在正文中充分討論 TurboQuant 與 RaBitQ 在設計選擇上的差異 。 然而 , 作者們在最終的 Camera-ready 中不僅沒有進行有意義的探討 , 反而僅僅在實驗部分提了一次 RaBitQ , 甚至把原本正文中對 RaBitQ 已經很不完整的描述直接塞進了附錄 。

更讓社區感到不適的是這背后折射出的大廠傲慢 。 一位研究者在公開評論中指出 , 這是一個令人沮喪的現狀:做基礎奠基性工作的獨立研究者或學術團隊往往無人問津 , 而手握巨大影響力的科技巨頭(如谷歌)只需將這些底層邏輯稍微包裝一下 , 配合強大的 PR 機器 , 就能瞬間打造出一個「革命性突破」的學術神話 , 甚至能以此撬動百億美元的股票市場 。

在這個過程中 , 如果不是原作者頂著壓力、拿著詳實的郵件記錄和代碼證據出來「剛正面」 , 那些被刻意淡化的技術傳承、被錯誤定性的理論成果、以及單核 CPU 戰頂級 GPU 的荒誕對比 , 就會在大廠千萬級的曝光量下固化為新的「行業常識」 。
正如 RaBitQ 一作高健揚在聲明文末所寫:「一篇論文被 Google 以數千萬曝光量推向公眾 , 在這種體量下 , 論文中錯誤的敘事不需要主動傳播 , 只需要不被糾正 , 就會自動成為共識 。 」

縱觀整起事件 , TurboQuant 在技術層面確實為 LLM 的內存優化提供了一個極具商業價值的工程解法 , 這也許是它能被 ICLR 接收并在工業界引發地震的原因 。
【TurboQuant團隊學術不端?谷歌回應了,但爭議更大了】然而 , 科學研究從來都是建立在同行間誠實、透明的交流與接力之上 。 當「跑分造假」可以被輕描淡寫地解釋為「與核心結論無關」 , 當「忽視先行研究」可以用「行業慣例」來搪塞 , 這傷害的不僅僅是某一個學術團隊的感情 , 更是整個 AI 研究社區賴以生存的信任基石 。

這場風波目前仍在發酵 , 而它留給學術界和工業界的反思 , 恐怕比那 900 億美元的股市震蕩要深遠得多 。
參考鏈接:https://www.reddit.com/r/MachineLearning/comments/1s8yni2/d_turboquant_author_replies_on_openreview/

    推薦閱讀