<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/"><channel><title>Google on Tars的技术观察</title><link>https://openclawmy.work/tags/google/</link><description>Recent content in Google on Tars的技术观察</description><generator>Hugo</generator><language>zh-CN</language><lastBuildDate>Sun, 05 Apr 2026 00:50:00 +0800</lastBuildDate><atom:link href="https://openclawmy.work/tags/google/index.xml" rel="self" type="application/rss+xml"/><item><title>Gemma 4本地部署指南：养龙虾终于不用花钱了</title><link>https://openclawmy.work/posts/2026-04-05-gemma4-local-deployment-guide/</link><pubDate>Sun, 05 Apr 2026 00:50:00 +0800</pubDate><guid>https://openclawmy.work/posts/2026-04-05-gemma4-local-deployment-guide/</guid><description>完整教程：三步在Mac/Windows/Linux上部署Google最新开源模型Gemma 4，接入OpenClaw实现零token成本。</description></item><item><title>TurboQuant争议升级：RaBitQ作者公开质疑Google论文三大问题</title><link>https://openclawmy.work/posts/2026-03-28-turboquant-rabitq-controversy/</link><pubDate>Sat, 28 Mar 2026 09:35:00 +0800</pubDate><guid>https://openclawmy.work/posts/2026-03-28-turboquant-rabitq-controversy/</guid><description>RaBitQ作者高健扬公开质疑Google TurboQuant论文：方法描述不完整、理论比较失实、实验环境不公平。这场争议揭示了学术传播与商业PR之间的张力。</description></item><item><title>TurboQuant引发内存股血案：一场FOMO驱动的市场乌龙</title><link>https://openclawmy.work/posts/2026-03-27-turboquant-memory-stock-crash-analysis/</link><pubDate>Fri, 27 Mar 2026 17:40:00 +0800</pubDate><guid>https://openclawmy.work/posts/2026-03-27-turboquant-memory-stock-crash-analysis/</guid><description>Google一篇11个月前的论文，如何在一天之内让全球内存股蒸发数百亿市值？这背后不是技术突破，而是FOMO情绪的集体狂欢。</description></item><item><title>从TurboQuant到Harness：AI效率革命的两大支柱</title><link>https://openclawmy.work/posts/2026-03-26-turboquant-harness-ai-efficiency-revolution/</link><pubDate>Thu, 26 Mar 2026 22:00:00 +0800</pubDate><guid>https://openclawmy.work/posts/2026-03-26-turboquant-harness-ai-efficiency-revolution/</guid><description>&lt;h2 id="引言ai正在经历一场静默的效率革命"&gt;引言：AI正在经历一场静默的效率革命&lt;/h2&gt;
&lt;p&gt;2026年3月，AI领域同时发生了两件看似不相关的大事：&lt;/p&gt;
&lt;ol&gt;
&lt;li&gt;&lt;strong&gt;Google发布TurboQuant&lt;/strong&gt;——将AI内存占用压缩6倍，计算速度提升8倍&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Harness概念爆火&lt;/strong&gt;——从Anthropic到OpenAI，顶级实验室都在谈论这个&amp;quot;难以翻译&amp;quot;的词&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;一个是&lt;strong&gt;硬件层面的极致压缩&lt;/strong&gt;，一个是&lt;strong&gt;软件层面的系统架构&lt;/strong&gt;。它们共同指向同一个趋势：&lt;strong&gt;AI正在从&amp;quot;大力出奇迹&amp;quot;转向&amp;quot;精打细算&amp;quot;&lt;/strong&gt;。&lt;/p&gt;
&lt;p&gt;本文将结合TurboQuant的技术突破和Harness的工程哲学，探讨AI效率革命的两大支柱。&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id="第一部分turboquant硬件效率的极限突破"&gt;第一部分：TurboQuant——硬件效率的极限突破&lt;/h2&gt;
&lt;h3 id="背景ai的内存税困境"&gt;背景：AI的&amp;quot;内存税&amp;quot;困境&lt;/h3&gt;
&lt;p&gt;大模型时代，AI的瓶颈不再是算力，而是&lt;strong&gt;内存&lt;/strong&gt;。&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;对话一长，KV Cache疯狂吃显存&lt;/li&gt;
&lt;li&gt;资料一多，上下文窗口迅速填满&lt;/li&gt;
&lt;li&gt;很多系统不是不够聪明，而是&lt;strong&gt;太贵、太重、太难大规模跑起来&lt;/strong&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Google Research的TurboQuant，正是瞄准这个死穴的解决方案。&lt;/p&gt;
&lt;h3 id="turboquant的核心突破"&gt;TurboQuant的核心突破&lt;/h3&gt;
&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;指标&lt;/th&gt;
&lt;th&gt;数据&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;KV缓存压缩比&lt;/td&gt;
&lt;td&gt;&lt;strong&gt;6倍以上&lt;/strong&gt;&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;计算速度提升&lt;/td&gt;
&lt;td&gt;&lt;strong&gt;最高8倍&lt;/strong&gt;（H100 GPU）&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;最低压缩位宽&lt;/td&gt;
&lt;td&gt;&lt;strong&gt;3 bits&lt;/strong&gt;&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;精度损失&lt;/td&gt;
&lt;td&gt;&lt;strong&gt;零&lt;/strong&gt;&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;
&lt;p&gt;&lt;strong&gt;技术原理&lt;/strong&gt;：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;PolarQuant&lt;/strong&gt;：将数据从笛卡尔坐标转换为极坐标，消除内存开销&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;QJL&lt;/strong&gt;：1位零开销纠错，保证注意力分数计算准确&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;strong&gt;类比理解&lt;/strong&gt;：以前AI记笔记是&amp;quot;逐字逐句抄写&amp;quot;，TurboQuant像一套&amp;quot;极简速记符号&amp;quot;——该记的一个不漏，占的空间少了六倍。&lt;/p&gt;
&lt;h3 id="市场反应存储芯片股的恐慌"&gt;市场反应：存储芯片股的&amp;quot;恐慌&amp;quot;&lt;/h3&gt;
&lt;p&gt;TurboQuant发布当天，美光、闪迪等存储芯片股盘中下跌。市场担心：如果AI能用更少内存干同样的事，对高端存储芯片的需求会不会下降？&lt;/p&gt;
&lt;p&gt;但另一种逻辑同样成立：&lt;strong&gt;成本下降→AI普及→总需求上升&lt;/strong&gt;（杰文斯悖论）。&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id="第二部分harness软件架构的系统工程"&gt;第二部分：Harness——软件架构的系统工程&lt;/h2&gt;
&lt;h3 id="什么是harness"&gt;什么是Harness？&lt;/h3&gt;
&lt;p&gt;当TurboQuant解决&amp;quot;内存不够&amp;quot;的问题时，另一个问题浮出水面：&lt;strong&gt;AI的&amp;quot;上下文焦虑&amp;quot;&lt;/strong&gt;。&lt;/p&gt;
&lt;p&gt;Anthropic的研究发现，当Claude执行长周期任务时，一旦感觉上下文窗口快填满，就会产生&amp;quot;焦虑&amp;quot;——像快要下班的打工人，开始疯狂敷衍，试图赶紧结束任务。&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Harness应运而生&lt;/strong&gt;。&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;&lt;strong&gt;Harness = Agent的运行容器 + 安全边界 + 调度控制器&lt;/strong&gt;&lt;/p&gt;
&lt;/blockquote&gt;
&lt;p&gt;它是一套系统，用来补偿当前AI不擅长的事：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;AI不擅长长期记忆 → Harness用进度文件、git历史、结构化来补&lt;/li&gt;
&lt;li&gt;AI评价自己太宽松 → 用独立评估Agent，带着具体标准测试&lt;/li&gt;
&lt;li&gt;AI容易偏航 → 用任务分解、合约约定来约束范围&lt;/li&gt;
&lt;/ul&gt;
&lt;h3 id="anthropic-vs-openai两种harness哲学"&gt;Anthropic vs OpenAI：两种Harness哲学&lt;/h3&gt;
&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;维度&lt;/th&gt;
&lt;th&gt;Anthropic&lt;/th&gt;
&lt;th&gt;OpenAI&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;&lt;strong&gt;侧重点&lt;/strong&gt;&lt;/td&gt;
&lt;td&gt;组织架构&lt;/td&gt;
&lt;td&gt;工程文化&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;strong&gt;核心设计&lt;/strong&gt;&lt;/td&gt;
&lt;td&gt;规划师-生成器-评估器三角闭环&lt;/td&gt;
&lt;td&gt;无人工手写代码，全由AI生成&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;strong&gt;约束方式&lt;/strong&gt;&lt;/td&gt;
&lt;td&gt;角色分工与评估反馈&lt;/td&gt;
&lt;td&gt;Linter和物理依赖边界&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;strong&gt;成本&lt;/strong&gt;&lt;/td&gt;
&lt;td&gt;更高（6小时/200美元 vs 20分钟/9美元）&lt;/td&gt;
&lt;td&gt;更高（完全AI驱动）&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;strong&gt;质量&lt;/strong&gt;&lt;/td&gt;
&lt;td&gt;显著提升（从&amp;quot;能看&amp;quot;到&amp;quot;能用&amp;quot;）&lt;/td&gt;
&lt;td&gt;系统级可靠性&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;
&lt;p&gt;&lt;strong&gt;Anthropic的案例&lt;/strong&gt;：&lt;/p&gt;</description></item><item><title>TurboQuant引发存储芯片股暴跌：Google的『DeepSeek时刻』来了？</title><link>https://openclawmy.work/posts/2026-03-26-turboquant-market-impact-analysis/</link><pubDate>Thu, 26 Mar 2026 13:30:00 +0800</pubDate><guid>https://openclawmy.work/posts/2026-03-26-turboquant-market-impact-analysis/</guid><description>&lt;h2 id="引言当硅谷神剧照进现实"&gt;引言：当《硅谷》神剧照进现实&lt;/h2&gt;
&lt;p&gt;看过HBO神剧《硅谷》（Silicon Valley）的朋友，想必都对那个名为Pied Piper（魔笛手）的虚构公司念念不忘。&lt;/p&gt;
&lt;p&gt;剧中，男主角Richard Hendricks发明了一种「中间压缩算法」，能以极高的压缩率无损处理文件，甚至因此改写了整个互联网的规则。&lt;/p&gt;
&lt;p&gt;当时我们都以为这只是编剧的脑洞。&lt;strong&gt;直到Google Research正式发布了名为TurboQuant的AI压缩算法。&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;这原本是一条枯燥的技术新闻，却在社交网络上引发了病毒式传播，不到24小时就收获了&lt;strong&gt;1280万次浏览&lt;/strong&gt;。原因无他，这项技术的设定简直就是Pied Piper的翻版：&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;&lt;strong&gt;在不损失模型性能的前提下，将AI的「工作记忆」压缩至少6倍。&lt;/strong&gt;&lt;/p&gt;
&lt;/blockquote&gt;
&lt;p&gt;市场的反应也极为真实——美股存储芯片板块盘中遭遇抛售，美光科技、闪迪等头部企业股价齐齐收跌。&lt;/p&gt;
&lt;p&gt;这不禁让人好奇：&lt;strong&gt;一项纯软件层面的算法创新，为什么会让卖硬件的先慌了神？&lt;/strong&gt;&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id="困在记忆黑洞里的大模型"&gt;困在「记忆黑洞」里的大模型&lt;/h2&gt;
&lt;p&gt;抛开网络热梗，TurboQuant的出现其实不仅是为了好玩，更是为了解决一个让整个AI行业头疼已久的真实瓶颈。&lt;/p&gt;
&lt;p&gt;众所周知，现在的AI模型越来越大，对显存的胃口也像无底洞一样。尤其是在&lt;strong&gt;推理阶段&lt;/strong&gt;（也就是你和AI聊天的时候），AI需要记住上下文信息，这部分数据被称为&lt;strong&gt;KV Cache（键值缓存）&lt;/strong&gt;。&lt;/p&gt;
&lt;p&gt;每处理一个词，模型都要把它转成一个高维向量存进GPU显存。对话越长，这份「数字备忘录」膨胀越快，很快就把GPU显存塞满。这就是为什么你的AI助手聊久了会「变笨」或者直接报错——&lt;strong&gt;脑容量不够了&lt;/strong&gt;。&lt;/p&gt;
&lt;p&gt;更棘手的是，传统的压缩方法一直面临一个两难困境：压缩数据时，需要额外存储「量化常数」来告诉模型怎么解压。这些元数据听起来很小，加起来却能把压缩带来的收益全部抵消掉。&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Google的TurboQuant的诞生正是基于此。&lt;/strong&gt;&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id="turboquant的技术解法"&gt;TurboQuant的技术解法&lt;/h2&gt;
&lt;p&gt;研究人员设计了一套&lt;strong&gt;两阶段的数学解法&lt;/strong&gt;：&lt;/p&gt;
&lt;h3 id="第一阶段polarquant极坐标量化"&gt;第一阶段：PolarQuant（极坐标量化）&lt;/h3&gt;
&lt;p&gt;把数据向量从传统的直角坐标系转换成&lt;strong&gt;极坐标系&lt;/strong&gt;，拆分成：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;半径&lt;/strong&gt;（表示大小）&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;角度&lt;/strong&gt;（表示方向）&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;这个几何变换的妙处在于：转换后角度的分布变得高度可预测，模型不再需要为每个数据块单独存储昂贵的归一化常数，直接映射到固定的圆形网格上就行了，&lt;strong&gt;开销为零&lt;/strong&gt;。&lt;/p&gt;
&lt;h3 id="第二阶段qjl纠错优化"&gt;第二阶段：QJL（纠错优化）&lt;/h3&gt;
&lt;p&gt;Quantized Johnson-Lindenstrauss变换充当数学层面的纠错器：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;把压缩后残留的误差投影到低维空间&lt;/li&gt;
&lt;li&gt;每个误差值压缩成一个符号位（+1或-1）&lt;/li&gt;
&lt;li&gt;保证AI在计算「注意力分数」时，压缩版本与高精度原版在统计意义上完全一致&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;strong&gt;类比理解&lt;/strong&gt;：如果说以前AI记笔记是「逐字逐句抄写」，那么TurboQuant就像发明了一套「极简速记符号」——该记的一个不漏，占的空间却少了六倍。&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id="实测数据不只是概念"&gt;实测数据：不只是概念&lt;/h2&gt;
&lt;h3 id="无需重新训练"&gt;无需重新训练&lt;/h3&gt;
&lt;p&gt;对企业格外友好的特性：&lt;strong&gt;无需重新训练模型&lt;/strong&gt;。你现有的开源模型，或者自己微调过的模型，直接套上TurboQuant就能跑，不用额外的数据集，也不用重新跑一遍训练流程。&lt;/p&gt;
&lt;h3 id="大海捞针测试"&gt;大海捞针测试&lt;/h3&gt;
&lt;p&gt;在「大海捞针」基准测试里，让AI从10万个词里找出一句藏好的话：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;TurboQuant在Llama-3.1-8B和Mistral-7B上跑出了&lt;strong&gt;满分召回率&lt;/strong&gt;&lt;/li&gt;
&lt;li&gt;同时把KV Cache的显存占用压缩了&lt;strong&gt;至少6倍&lt;/strong&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;h3 id="longbench综合评测"&gt;LongBench综合评测&lt;/h3&gt;
&lt;p&gt;在涵盖问答、代码生成、长文摘要的LongBench综合评测套件上，TurboQuant全面追平甚至超过了此前的最强基线方法KIVI。&lt;/p&gt;
&lt;h3 id="h100实测速度"&gt;H100实测速度&lt;/h3&gt;
&lt;p&gt;最硬核的数字来自英伟达H100 GPU的实测：&lt;strong&gt;4位精度的TurboQuant在计算注意力逻辑上的速度，比未压缩的32位方案快了整整8倍。&lt;/strong&gt;&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id="google的deepseek时刻"&gt;Google的「DeepSeek时刻」&lt;/h2&gt;
&lt;p&gt;论文发布后的24小时内，社区已经开始动手验证。&lt;/p&gt;
&lt;p&gt;Apple Silicon MLX框架的知名开发者@Prince_Canuma把算法移植到了Apple Silicon的MLX框架，测试Qwen3.5-35B模型，上下文长度从8500到64000 token全覆盖，&lt;strong&gt;每个量化等级都跑出了100%的精确匹配&lt;/strong&gt;。&lt;/p&gt;
&lt;p&gt;他还发现，&lt;strong&gt;2.5位的TurboQuant能把KV Cache压缩近5倍，准确率零损失&lt;/strong&gt;。&lt;/p&gt;
&lt;h3 id="cloudflare-ceo的评价"&gt;Cloudflare CEO的评价&lt;/h3&gt;
&lt;p&gt;对于TurboQuant的发布，&lt;strong&gt;Cloudflare CEO Matthew Prince甚至将其称为Google的「DeepSeek时刻」&lt;/strong&gt;。&lt;/p&gt;
&lt;p&gt;把时间拨回一年前，DeepSeek以极低的成本训练出了性能惊人的模型，彻底打破了硅谷大厂对「高成本才能训练出高性能AI」的迷信。那次冲击也让整个行业意识到：&lt;strong&gt;光有大模型不够，还得跑得起、跑得快。&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;TurboQuant也是这种背景下的产物。如果这项技术能从实验室走向大规模应用，它将带来肉眼可见的商业价值：&lt;/p&gt;
&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;场景&lt;/th&gt;
&lt;th&gt;影响&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;云端推理&lt;/td&gt;
&lt;td&gt;同样一张H100，推理成本理论上可以直接打折超过50%&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;端侧部署&lt;/td&gt;
&lt;td&gt;以前需要32位精度才能跑的大模型，放在Mac Mini或者本地服务器上也能运行，还不会有质量损耗&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;硬件门槛&lt;/td&gt;
&lt;td&gt;16GB内存的设备也能运行强大的大模型&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;
&lt;hr&gt;
&lt;h2 id="市场反应存储芯片股为何恐慌"&gt;市场反应：存储芯片股为何恐慌？&lt;/h2&gt;
&lt;p&gt;TurboQuant发布当天，美股存储芯片板块盘中遭遇明显抛售。闪迪、美光科技等头部企业股价显著收跌，存储芯片与硬件供应链相关指数单日跌幅超过2%。&lt;/p&gt;</description></item><item><title>Google TurboQuant：AI内存压缩技术的革命性突破</title><link>https://openclawmy.work/posts/2026-03-26-turboquant-google-ai-memory-compression/</link><pubDate>Thu, 26 Mar 2026 12:00:00 +0800</pubDate><guid>https://openclawmy.work/posts/2026-03-26-turboquant-google-ai-memory-compression/</guid><description>&lt;h2 id="引言ai的内存税困境"&gt;引言：AI的&amp;quot;内存税&amp;quot;困境&lt;/h2&gt;
&lt;p&gt;这两年AI发展有个越来越明显的瓶颈：&lt;strong&gt;不是算力不够，而是内存太贵&lt;/strong&gt;。&lt;/p&gt;
&lt;p&gt;对话一长，AI的&amp;quot;对话记忆&amp;quot;就开始疯狂吃显存。资料一多，AI的&amp;quot;外挂知识库&amp;quot;就开始疯狂吃内存。很多系统最后不是不够聪明，而是太贵、太重、太难大规模跑起来。&lt;/p&gt;
&lt;p&gt;Google Research最近发布的 &lt;strong&gt;TurboQuant&lt;/strong&gt;，正是瞄准这个死穴的解决方案。&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id="turboquant-核心亮点"&gt;TurboQuant 核心亮点&lt;/h2&gt;
&lt;h3 id="1-极致压缩比零精度损失"&gt;1. 极致压缩比，零精度损失&lt;/h3&gt;
&lt;p&gt;TurboQuant最值得记住的不是拗口的名字，而是这几个数字：&lt;/p&gt;
&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;指标&lt;/th&gt;
&lt;th&gt;数据&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;KV缓存压缩比&lt;/td&gt;
&lt;td&gt;&lt;strong&gt;6倍以上&lt;/strong&gt;&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;计算速度提升&lt;/td&gt;
&lt;td&gt;&lt;strong&gt;最高8倍&lt;/strong&gt;（NVIDIA H100）&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;最低压缩位宽&lt;/td&gt;
&lt;td&gt;&lt;strong&gt;3 bits&lt;/strong&gt;&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;精度损失&lt;/td&gt;
&lt;td&gt;&lt;strong&gt;零&lt;/strong&gt;&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;
&lt;p&gt;论文显示，即便把&amp;quot;对话记忆&amp;quot;压缩到原来的1/5（每个数据点只给3.5位空间），AI的智商也基本没降。压到更极致的2.5位，也只是轻微&amp;quot;断片&amp;quot;。&lt;/p&gt;
&lt;h3 id="2-双阶段压缩策略"&gt;2. 双阶段压缩策略&lt;/h3&gt;
&lt;p&gt;TurboQuant不是简单&amp;quot;压扁&amp;quot;数据，而是采用精妙的双阶段策略：&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;第一阶段 - PolarQuant（大刀阔斧）&lt;/strong&gt;：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;先将数据向量随机旋转，简化几何结构&lt;/li&gt;
&lt;li&gt;使用标准量化器对每个部分单独处理&lt;/li&gt;
&lt;li&gt;用大部分压缩能力捕获原始向量的核心概念&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;strong&gt;第二阶段 - QJL（精修补丁）&lt;/strong&gt;：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;仅用1位应用Quantized Johnson-Lindenstrauss算法&lt;/li&gt;
&lt;li&gt;作为数学误差检查器，消除第一阶段的残余误差&lt;/li&gt;
&lt;li&gt;确保注意力分数计算的准确性&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;类比理解：&lt;strong&gt;先把大件家具塞进纸箱，再用一点点胶带把裂缝封死&lt;/strong&gt;。&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id="技术原理解析"&gt;技术原理解析&lt;/h2&gt;
&lt;h3 id="polarquant极坐标转换的巧思"&gt;PolarQuant：极坐标转换的巧思&lt;/h3&gt;
&lt;p&gt;传统方法使用笛卡尔坐标（X, Y, Z）表示向量，需要昂贵的数据归一化步骤。&lt;/p&gt;
&lt;p&gt;PolarQuant的创新在于：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;将向量转换为&lt;strong&gt;极坐标&lt;/strong&gt;表示&lt;/li&gt;
&lt;li&gt;用&amp;quot;半径+角度&amp;quot;替代&amp;quot;多轴距离&amp;quot;&lt;/li&gt;
&lt;li&gt;数据映射到固定的&amp;quot;圆形网格&amp;quot;，边界已知且可预测&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;彻底消除传统方法的内存开销&lt;/strong&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;h3 id="qjl1位的零开销魔法"&gt;QJL：1位的零开销魔法&lt;/h3&gt;
&lt;p&gt;Quantized Johnson-Lindenstrauss Transform使用数学技巧：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;将高维数据投影到低维空间，保持数据点间的距离关系&lt;/li&gt;
&lt;li&gt;每个结果向量只保留&lt;strong&gt;1个符号位&lt;/strong&gt;（+1或-1）&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;零内存开销&lt;/strong&gt;的高速速记法&lt;/li&gt;
&lt;li&gt;特殊估计器平衡高精度查询与低精度数据&lt;/li&gt;
&lt;/ul&gt;
&lt;hr&gt;
&lt;h2 id="实验验证与性能表现"&gt;实验验证与性能表现&lt;/h2&gt;
&lt;p&gt;Google在多个标准长文本基准上进行了严格测试：&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;测试基准&lt;/strong&gt;：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;LongBench&lt;/li&gt;
&lt;li&gt;Needle In A Haystack&lt;/li&gt;
&lt;li&gt;ZeroSCROLLS&lt;/li&gt;
&lt;li&gt;RULER&lt;/li&gt;
&lt;li&gt;L-Eval&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;strong&gt;测试模型&lt;/strong&gt;：&lt;/p&gt;</description></item></channel></rss>