4月1日,在沉默了近一周后,谷歌引發爭議的壓縮算法TurboQuant論文團隊終于回應了。然而,這一最新的“技術澄清”看起來仍未平息爭議,針對“核心技術相似性”的指控,谷歌辯稱隨機旋轉是標準技術,并認為實驗基準中的錯誤對事實“并不重要”。
在3月最后一周,這篇被谷歌官方博客高調宣傳的論文,曾以一己之力砸崩全球存儲芯片股,美光、SK海力士、三星電子等市值蒸發超900億美元。論文指出,TurboQuant 這種壓縮算法能夠將大語言模型的 KV 緩存內存占用減少至少 6 倍,速度提升高達 8 倍,且精度零損失。
華爾街的恐慌在于:如果軟件能把AI內存需求壓縮6倍,芯片硬件的增長邏輯就要重寫。
然而,反轉來得很快。3月27日,RaBitQ作者、蘇黎世聯邦理工學院博士后高健揚在知乎發布萬字長文,指控谷歌團隊存在系統性學術問題,輿論迅速轉向對谷歌學術不端的拷問。
業界普遍認為,RaBitQ率先提出了原創方法,TurboQuant在其基礎上進行了優化,卻未給予應有的引用與尊重,甚至作出了不公正的貶低。
4月1日,面對外界的指控,論文第二作者Majid Daliri終于出來,代表團隊在OpenReview平臺上發布了一份共四個點的“技術澄清”。

在核心技術新穎性方面,谷歌辯稱,TurboQuant的核心方法并非源自RaBitQ。因為“隨機旋轉是量化文獻中一種標準的、無處不在的技術”,早在RaBitQ出現前就被廣泛使用。TurboQuant的真正創新在于推導出了旋轉后的坐標分布。
但學術圈的規則是:如果某人是第一個把“輪子”用在“汽車”上,并造出了完整的車,后來的造車者引用并致謝是基本的學術禮儀。谷歌將前人成果輕描淡寫為行業常識,等于把先行者貢獻降級了。
其次,關于貶低RaBitQ理論為“次優”的指控,論文作者承認,是因為自己沒仔細看對方的附錄,漏了一個常數因子,才得出了草率的結論,“導致我們最初誠實地將該方法描述為次優”?,F在仔細研究了,發現RaBitQ確實是最優的,團隊正在更新TurboQuant手稿。
不過,一篇頂會論文,對同行核心理論的負面評價建立在“沒看清附錄”的基礎上,這一解釋的力度難免受到質疑。
在第三點,針對“把對手綁住手腳再賽跑”的指控,Majid Daliri直接指出,即使完全省略了與RaBitQ的運行時比較,該論文的科學影響和有效性也基本保持不變。因為TurboQuant的主要貢獻在于壓縮質量的權衡,而不是特定的加速。
此前高健揚在公開信中披露,谷歌團隊測試RaBitQ時使用單核CPU并關閉多線程,測試TurboQuant時則采用英偉達A100 GPU。盡管團隊宣稱速度對比并非核心,論文中卻仍將速度作為關鍵賣點之一。
最后,谷歌在回應中暗示對方“別有用心”,指出論文自2025年4月就在arXiv發布,對方有將近一年時間通過學術渠道提問題,卻等到論文獲得廣泛關注后才鬧大。
根據高健揚此前的回應,早在2025年5月雙方就通過郵件私下溝通,2025年11月還曾聯系ICLR組委會,但均未得到有效回應。直到谷歌通過官方渠道將論文推上千萬級曝光量的神壇,學術糾正才變得迫在眉睫。
在OpenReview上,有研究者評論,這是一個值得更多關注的嚴重問題?!翱吹綇氖聦嶋H基礎工作的人被忽視,而大型、有影響力的組織卻大肆宣傳自己的成果,這令人沮喪?!痹谶@一點上,感覺不像是科學,更像是一場與大廠的公關競賽。

同時,TurboQuant論文的審稿人也站出來表達態度,稱由于其理論分析和實驗結果,對這篇論文曾給予了很高的評價。
“然而我也明確指出,RaBitQ和TurboQuant都使用隨機旋轉,并要求TurboQuant的作者比較TurboQuant和RaBitQ之間的設計差異如何影響性能。”這位審稿人表示,正確的學術實踐是在論文中深入討論RaBitQ和TurboQuant之間的差異,但審稿時“驚訝地發現RaBitQ在主論文的實驗部分只提到過一次”。
不可否認,TurboQuant在技術層面具備商業潛力。一位人工智能碩士在知乎上分析稱,在大模型推理場景中,KV緩存內存占用直接決定單卡可同時處理的請求數量,是推理服務商最核心的經濟指標。同樣一張卡,并發量若提升6倍,每個請求的推理成本理論上可降至原來的六分之一。對于那些每天處理數十億次API調用的AI廠商而言,這將是一項巨大的降本利器,這也是此次股市震蕩的原因。
谷歌這一論文即將在4月底的機器學習頂級會議ICLR 2026上發表,但看起來團隊要先邁過這場學術爭議的門檻。風波最終會如何收場,仍有待觀察。