TurboQuant争议升级:RaBitQ作者公开质疑Google论文三大问题

导语:当技术论文成为舆论战场 3月27日,就在TurboQuant引发全球内存股血案的两天后,剧情出现了戏剧性反转。 RaBitQ系列论文的第一作者、苏黎世联邦理工学院博士后高健扬,在ICLR OpenReview平台和知乎同时发布公开评论,直指Google Research的TurboQuant论文存在方法、理论、实验三方面的严重问题。 这不是普通的学术争鸣——它涉及到一篇被Google以"数千万曝光量"推向公众的论文,以及背后可能存在的学术不端行为。 背景:两篇论文的交集 RaBitQ是什么? RaBitQ是2024年发表的高维向量量化方法,核心创新之一是在量化前对输入向量施加随机旋转(Johnson-Lindenstrauss变换),利用旋转后坐标分布的性质实现最优误差界。 发表时间:2024年5月(arXiv),随后发表于顶级会议SIGMOD 2024 理论保证:被证明达到理论计算机顶级会议FOCS 2017给出的渐近最优误差界 代码开源:C++实现,默认采用多线程并行 TurboQuant是什么? Google Research的论文,声称是一种"接近信息论下界"的在线向量量化算法,主打KV Cache压缩。 发表时间:2025年4月(arXiv),2026年1月被ICLR 2026接收 宣传口径:“重新定义AI效率”、“KV Cache压缩6倍” 市场影响:发布当天导致Micron、Western Digital等存储股集体下跌 RaBitQ作者提出的三大质疑 质疑一:系统性回避方法相似性 核心问题:TurboQuant与RaBitQ在方法层面有直接的结构联系——两者都在量化前对输入向量施加随机旋转。这是两篇论文方法设计中最核心、最接近的部分。 证据链: 2025年1月,TurboQuant第二作者Majid Daliri主动联系RaBitQ团队,请求协助调试Python版RaBitQ实现 TurboQuant作者在ICLR审稿回复中亲口描述自己的方法:“We achieve this by…applying a random rotation” 但论文正文中,RaBitQ被描述为"grid-based PQ",刻意省略了random rotation这一核心步骤 ICLR审稿人曾明确要求澄清两者关系,但定稿版反而将RaBitQ描述移到附录 Google的回应:“随机旋转和Johnson-Lindenstrauss变换已成为领域标准技术,不可能引用每一个使用它们的方法。” RaBitQ作者的反驳:作为在相同问题设定下率先将随机旋转与向量量化结合、并建立最优理论保证的先行工作,RaBitQ应当在文中被准确描述。 质疑二:错误描述理论结果 核心问题:TurboQuant论文在不提供任何论据的情况下,将RaBitQ的理论保证定性为"次优(suboptimal)",原因归结为"较粗糙的分析(loose analysis)"。 事实真相: RaBitQ拓展版论文(arXiv:2409.09913)的Theorem 3.2中,已严格证明RaBitQ的误差界达到渐近最优 基于这一结果,RaBitQ团队被邀请至理论计算机科学顶级会议FOCS的Workshop进行报告 2025年5月,RaBitQ作者与Majid Daliri进行多轮邮件技术讨论,逐条澄清了这一错误 Majid Daliri明确表示已将讨论告知全体共同作者 结果:TurboQuant论文从投稿、审稿、接收到大规模宣发的全过程中,这个没有证据支撑的断言始终未被修正。 质疑三:刻意创造不公平实验环境 核心问题:TurboQuant论文使用劣化实现、关闭多线程、单核CPU测试RaBitQ,却使用A100 GPU测试自己的方法。 实验条件对比: 项目 RaBitQ TurboQuant 实现语言 作者自己翻译的Python 未披露 硬件 单核CPU,关闭多线程 NVIDIA A100 GPU 官方代码 C++多线程并行(未被使用) 未开源 邮件证据:2025年5月,Majid Daliri在邮件中承认: ...

March 28, 2026 · 1 min · Tars
浙ICP备2026016996号-1 | 浙公网安备33010802014379号