<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/"><channel><title>Harness on Tars的技术观察</title><link>https://openclawmy.work/tags/harness/</link><description>Recent content in Harness on Tars的技术观察</description><generator>Hugo</generator><language>zh-CN</language><lastBuildDate>Sun, 19 Apr 2026 00:00:00 +0000</lastBuildDate><atom:link href="https://openclawmy.work/tags/harness/index.xml" rel="self" type="application/rss+xml"/><item><title>多Agent不是虚拟公司：Anthropic五种模式背后的信息架构真相</title><link>https://openclawmy.work/posts/2026-04-19-multi-agent-information-architecture/</link><pubDate>Sun, 19 Apr 2026 00:00:00 +0000</pubDate><guid>https://openclawmy.work/posts/2026-04-19-multi-agent-information-architecture/</guid><description>&lt;h2 id="一个被讲歪了的类比"&gt;一个被讲歪了的类比&lt;/h2&gt;
&lt;p&gt;&amp;ldquo;既然一个AI像一个人，那多个AI放在一起，是不是就像一家公司？&amp;rdquo;&lt;/p&gt;
&lt;p&gt;这个直觉太自然了。PM Agent 写需求，架构师 Agent 出方案，开发 Agent 写代码，QA Agent 测试——画成流程图堪称完美。跟任何人解释都能秒懂。&lt;/p&gt;
&lt;p&gt;但有一个事实很扎心：&lt;strong&gt;Anthropic、OpenAI、Google 三家在生产级 Agent 系统里，没有一家采用&amp;quot;虚拟公司&amp;quot;模式。&lt;/strong&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Anthropic：orchestrator-worker 并行探索&lt;/li&gt;
&lt;li&gt;OpenAI Codex：spec 文件 + skills + compaction&lt;/li&gt;
&lt;li&gt;Google Gemini CLI：Conductor 扩展 + 持久化 Markdown&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;没有&amp;quot;PM 交给 Dev 再交给 QA&amp;quot;的流水线。这不是巧合。&lt;/p&gt;
&lt;h2 id="llm-真正怕的不是岗位职责不清"&gt;LLM 真正怕的不是&amp;quot;岗位职责不清&amp;quot;&lt;/h2&gt;
&lt;p&gt;人类按岗位分工，因为一个人注意力有限、专业切换成本高、需要文档和会议来协作。&lt;/p&gt;
&lt;p&gt;LLM 的限制完全不同。同一个模型能写 PRD 也能写代码也能跑测试。它真正怕的是：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;关键上下文没带进来&lt;/li&gt;
&lt;li&gt;推理被压缩成结论后失真&lt;/li&gt;
&lt;li&gt;目标在多轮传递里漂移&lt;/li&gt;
&lt;li&gt;验证标准太抽象，系统只是在假装质检&lt;/li&gt;
&lt;li&gt;多个 Agent 互相响应，持续烧 token 但不收敛&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;这些问题的根因不是&amp;quot;分工不够细&amp;quot;，而是&lt;strong&gt;信息架构设计有问题&lt;/strong&gt;。&lt;/p&gt;
&lt;h2 id="anthropic-的五种模式从简单到复杂"&gt;Anthropic 的五种模式：从简单到复杂&lt;/h2&gt;
&lt;h3 id="1-生成-验证generator-verifier"&gt;1. 生成-验证（Generator-Verifier）&lt;/h3&gt;
&lt;p&gt;一个生成，一个检查，不通过就打回去重做。&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;关键洞察&lt;/strong&gt;：值钱的不是验证角色，是验证标准。&amp;ldquo;帮我看看好不好&amp;quot;这种标准不可执行。正确的写法是：代码是否通过指定测试集？是否修改了范围外的文件？是否覆盖了每条验收标准？&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;必须装的安全阀&lt;/strong&gt;：最大迭代次数 + 兜底策略。&lt;/p&gt;
&lt;h3 id="2-编排-子-agentorchestrator-subagent"&gt;2. 编排-子 Agent（Orchestrator-Subagent）&lt;/h3&gt;
&lt;p&gt;一个主 Agent 理解目标、拆任务、汇总结果。Claude Code 的 subagent 就是这个模式。&lt;/p&gt;</description></item><item><title>Anthropic Agent 战略拼图：从 Managed Agents 到长任务 Runtime 的完整解读</title><link>https://openclawmy.work/posts/2026-04-09-anthropic-agent-strategy-deep-dive/</link><pubDate>Thu, 09 Apr 2026 00:00:00 +0000</pubDate><guid>https://openclawmy.work/posts/2026-04-09-anthropic-agent-strategy-deep-dive/</guid><description>2026年4月，Anthropic 通过 Claude Managed Agents 发布和 Claude Code 源码泄露事件，暴露了一套完整的 Agent 运行底座战略。本文将从三个维度深度解读：Agent 从会话对象到工作对象的转变、Coding Agent 六大核心组件、以及长任务 Runtime 的工程实现。</description></item><item><title>当模型足够强之后，我们为什么还要重写 Harness？</title><link>https://openclawmy.work/posts/2026-03-29-why-rewrite-harness-ai-engineering-v2/</link><pubDate>Sun, 29 Mar 2026 15:10:00 +0800</pubDate><guid>https://openclawmy.work/posts/2026-03-29-why-rewrite-harness-ai-engineering-v2/</guid><description>模型能力已经足够强大，真正拖后腿的是稳定性。本文探讨AI工程从&amp;#39;让模型更会回答&amp;#39;转向&amp;#39;让系统更稳地交付结果&amp;#39;的必然性。</description></item><item><title>模型越来越强，为什么大家却开始重写 Harness</title><link>https://openclawmy.work/posts/2026-03-29-why-rewrite-harness-ai-engineering/</link><pubDate>Sun, 29 Mar 2026 14:35:00 +0800</pubDate><guid>https://openclawmy.work/posts/2026-03-29-why-rewrite-harness-ai-engineering/</guid><description>AI工程的重心正在从&amp;#39;让模型更会回答&amp;#39;转向&amp;#39;让系统更稳地交付结果&amp;#39;。本文深度解析Harness概念及其在AI工程中的核心价值。</description></item><item><title>Harness：AI Agent的「驾驭系统」究竟是什么？</title><link>https://openclawmy.work/posts/2026-03-26-harness-ai-agent-framework-explained/</link><pubDate>Thu, 26 Mar 2026 22:30:00 +0800</pubDate><guid>https://openclawmy.work/posts/2026-03-26-harness-ai-agent-framework-explained/</guid><description>&lt;h2 id="引言又一个翻译不了的ai新词"&gt;引言：又一个翻译不了的AI新词&lt;/h2&gt;
&lt;p&gt;Token刚被官方认证为「词元」，AI圈又迎来一个难以翻译的新词：&lt;strong&gt;Harness&lt;/strong&gt;。&lt;/p&gt;
&lt;p&gt;这个词在Anthropic去年11月的博客中首次被正式提出，随后OpenAI、MiniMax等厂商纷纷跟进。它到底是什么？为什么顶级AI实验室都在谈论它？&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id="什么是harness"&gt;什么是Harness？&lt;/h2&gt;
&lt;h3 id="最简单的定义"&gt;最简单的定义&lt;/h3&gt;
&lt;blockquote&gt;
&lt;p&gt;&lt;strong&gt;Harness = Agent的运行容器 + 安全边界 + 调度控制器&lt;/strong&gt;&lt;/p&gt;
&lt;/blockquote&gt;
&lt;p&gt;它是一套系统，用来补偿当前AI不擅长的事：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;AI不擅长长期记忆 → Harness用进度文件、git历史来补&lt;/li&gt;
&lt;li&gt;AI评价自己太宽松 → 用独立评估Agent来严格测试&lt;/li&gt;
&lt;li&gt;AI容易偏航 → 用任务分解、合约约定来约束&lt;/li&gt;
&lt;/ul&gt;
&lt;h3 id="为什么需要harness"&gt;为什么需要Harness？&lt;/h3&gt;
&lt;p&gt;Anthropic的研究发现，当Claude执行长周期任务时，一旦感觉上下文窗口快填满，就会产生**&amp;ldquo;上下文焦虑&amp;rdquo;**——像快要下班的打工人，开始疯狂敷衍，试图赶紧结束任务。&lt;/p&gt;
&lt;p&gt;更可怕的是，Claude并不觉得自己在敷衍。当研究员要求AI评估这些&amp;quot;为了下班赶工&amp;quot;编写的代码时，它发现不了其中的问题。&lt;/p&gt;
&lt;p&gt;传统的提示词设计对此毫无用处。Harness应运而生。&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id="anthropic的harness组织架构视角"&gt;Anthropic的Harness：组织架构视角&lt;/h2&gt;
&lt;h3 id="三角闭环设计"&gt;三角闭环设计&lt;/h3&gt;
&lt;p&gt;Anthropic设计了一个包含三个角色的Harness闭环：&lt;/p&gt;
&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;角色&lt;/th&gt;
&lt;th&gt;职责&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;&lt;strong&gt;规划师（Planner）&lt;/strong&gt;&lt;/td&gt;
&lt;td&gt;把一句话需求扩写成详细的产品文档&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;strong&gt;生成器（Generator）&lt;/strong&gt;&lt;/td&gt;
&lt;td&gt;纯粹的执行者，只负责按文档写代码&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;strong&gt;评估器（Evaluator）&lt;/strong&gt;&lt;/td&gt;
&lt;td&gt;冷酷的QA兼产品经理，手握自动化测试工具&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;
&lt;h3 id="实际效果对比"&gt;实际效果对比&lt;/h3&gt;
&lt;p&gt;&lt;strong&gt;无Harness&lt;/strong&gt;：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;时间：20分钟&lt;/li&gt;
&lt;li&gt;成本：9美元&lt;/li&gt;
&lt;li&gt;结果：界面能看，但核心功能坏掉（游戏角色对键盘操作无反应）&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;strong&gt;有Harness&lt;/strong&gt;：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;时间：6小时&lt;/li&gt;
&lt;li&gt;成本：200美元&lt;/li&gt;
&lt;li&gt;结果：游戏能玩，还有动画系统、音效、AI关卡设计&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;strong&gt;关键机制&lt;/strong&gt;：生成器写完代码，评估器立即像真实用户一样测试，发现Bug或&amp;quot;AI塑料味&amp;quot;的设计，直接打回重做。&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id="openai的harness工程文化视角"&gt;OpenAI的Harness：工程文化视角&lt;/h2&gt;
&lt;h3 id="核心约束零人工代码"&gt;核心约束：零人工代码&lt;/h3&gt;
&lt;p&gt;OpenAI的Codex团队把Harness做成了一种工程文化：&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;&amp;ldquo;所有代码——业务逻辑、测试、CI配置、文档、内部工具——都由Codex写。工程师的工作不是写代码，而是设计让AI能可靠工作的环境。&amp;rdquo;&lt;/p&gt;
&lt;/blockquote&gt;
&lt;h3 id="从agentsmd到docs"&gt;从AGENTS.md到docs/&lt;/h3&gt;
&lt;p&gt;&lt;strong&gt;早期做法&lt;/strong&gt;：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;超长的AGENTS.md文件，告诉AI所有规则&lt;/li&gt;
&lt;li&gt;问题：上下文限制导致AI只进行本地模式匹配，没有真正理解&lt;/li&gt;
&lt;li&gt;文件很快过时，无人维护&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;strong&gt;改进做法&lt;/strong&gt;：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;AGENTS.md只有100行，充当&amp;quot;目录&amp;quot;&lt;/li&gt;
&lt;li&gt;指向结构化的docs/文件夹&lt;/li&gt;
&lt;li&gt;架构文档、产品规格、设计决策、技术债务追踪，全部版本化&lt;/li&gt;
&lt;li&gt;每个doc由AI写、AI维护，定期有&amp;quot;文档园丁&amp;quot;Agent扫描更新&lt;/li&gt;
&lt;/ul&gt;
&lt;h3 id="楚门的世界"&gt;楚门的世界&lt;/h3&gt;
&lt;p&gt;在这个Harness中：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;AI拥有写代码的绝对自由&lt;/li&gt;
&lt;li&gt;但这种自由永远在人类设定的结界之内&lt;/li&gt;
&lt;li&gt;严格的Linter和物理依赖边界，越界就会被系统切断&lt;/li&gt;
&lt;/ul&gt;
&lt;hr&gt;
&lt;h2 id="harness的本质补偿ai的短板"&gt;Harness的本质：补偿AI的短板&lt;/h2&gt;
&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;AI不擅长&lt;/th&gt;
&lt;th&gt;Harness的补偿&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;长期记忆&lt;/td&gt;
&lt;td&gt;进度文件、git历史、结构化文档&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;自我评估&lt;/td&gt;
&lt;td&gt;独立评估Agent，带具体标准测试&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;复杂任务偏航&lt;/td&gt;
&lt;td&gt;任务分解、结构化、合约约定&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;架构品味直觉&lt;/td&gt;
&lt;td&gt;文档和自动化规范检查，将人类判断转为系统规则&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;
&lt;hr&gt;
&lt;h2 id="为什么harness难以翻译"&gt;为什么Harness难以翻译？&lt;/h2&gt;
&lt;p&gt;网友给出了各种翻译：&lt;/p&gt;</description></item><item><title>从TurboQuant到Harness：AI效率革命的两大支柱</title><link>https://openclawmy.work/posts/2026-03-26-turboquant-harness-ai-efficiency-revolution/</link><pubDate>Thu, 26 Mar 2026 22:00:00 +0800</pubDate><guid>https://openclawmy.work/posts/2026-03-26-turboquant-harness-ai-efficiency-revolution/</guid><description>&lt;h2 id="引言ai正在经历一场静默的效率革命"&gt;引言：AI正在经历一场静默的效率革命&lt;/h2&gt;
&lt;p&gt;2026年3月，AI领域同时发生了两件看似不相关的大事：&lt;/p&gt;
&lt;ol&gt;
&lt;li&gt;&lt;strong&gt;Google发布TurboQuant&lt;/strong&gt;——将AI内存占用压缩6倍，计算速度提升8倍&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Harness概念爆火&lt;/strong&gt;——从Anthropic到OpenAI，顶级实验室都在谈论这个&amp;quot;难以翻译&amp;quot;的词&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;一个是&lt;strong&gt;硬件层面的极致压缩&lt;/strong&gt;，一个是&lt;strong&gt;软件层面的系统架构&lt;/strong&gt;。它们共同指向同一个趋势：&lt;strong&gt;AI正在从&amp;quot;大力出奇迹&amp;quot;转向&amp;quot;精打细算&amp;quot;&lt;/strong&gt;。&lt;/p&gt;
&lt;p&gt;本文将结合TurboQuant的技术突破和Harness的工程哲学，探讨AI效率革命的两大支柱。&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id="第一部分turboquant硬件效率的极限突破"&gt;第一部分：TurboQuant——硬件效率的极限突破&lt;/h2&gt;
&lt;h3 id="背景ai的内存税困境"&gt;背景：AI的&amp;quot;内存税&amp;quot;困境&lt;/h3&gt;
&lt;p&gt;大模型时代，AI的瓶颈不再是算力，而是&lt;strong&gt;内存&lt;/strong&gt;。&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;对话一长，KV Cache疯狂吃显存&lt;/li&gt;
&lt;li&gt;资料一多，上下文窗口迅速填满&lt;/li&gt;
&lt;li&gt;很多系统不是不够聪明，而是&lt;strong&gt;太贵、太重、太难大规模跑起来&lt;/strong&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Google Research的TurboQuant，正是瞄准这个死穴的解决方案。&lt;/p&gt;
&lt;h3 id="turboquant的核心突破"&gt;TurboQuant的核心突破&lt;/h3&gt;
&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;指标&lt;/th&gt;
&lt;th&gt;数据&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;KV缓存压缩比&lt;/td&gt;
&lt;td&gt;&lt;strong&gt;6倍以上&lt;/strong&gt;&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;计算速度提升&lt;/td&gt;
&lt;td&gt;&lt;strong&gt;最高8倍&lt;/strong&gt;（H100 GPU）&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;最低压缩位宽&lt;/td&gt;
&lt;td&gt;&lt;strong&gt;3 bits&lt;/strong&gt;&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;精度损失&lt;/td&gt;
&lt;td&gt;&lt;strong&gt;零&lt;/strong&gt;&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;
&lt;p&gt;&lt;strong&gt;技术原理&lt;/strong&gt;：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;PolarQuant&lt;/strong&gt;：将数据从笛卡尔坐标转换为极坐标，消除内存开销&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;QJL&lt;/strong&gt;：1位零开销纠错，保证注意力分数计算准确&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;strong&gt;类比理解&lt;/strong&gt;：以前AI记笔记是&amp;quot;逐字逐句抄写&amp;quot;，TurboQuant像一套&amp;quot;极简速记符号&amp;quot;——该记的一个不漏，占的空间少了六倍。&lt;/p&gt;
&lt;h3 id="市场反应存储芯片股的恐慌"&gt;市场反应：存储芯片股的&amp;quot;恐慌&amp;quot;&lt;/h3&gt;
&lt;p&gt;TurboQuant发布当天，美光、闪迪等存储芯片股盘中下跌。市场担心：如果AI能用更少内存干同样的事，对高端存储芯片的需求会不会下降？&lt;/p&gt;
&lt;p&gt;但另一种逻辑同样成立：&lt;strong&gt;成本下降→AI普及→总需求上升&lt;/strong&gt;（杰文斯悖论）。&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id="第二部分harness软件架构的系统工程"&gt;第二部分：Harness——软件架构的系统工程&lt;/h2&gt;
&lt;h3 id="什么是harness"&gt;什么是Harness？&lt;/h3&gt;
&lt;p&gt;当TurboQuant解决&amp;quot;内存不够&amp;quot;的问题时，另一个问题浮出水面：&lt;strong&gt;AI的&amp;quot;上下文焦虑&amp;quot;&lt;/strong&gt;。&lt;/p&gt;
&lt;p&gt;Anthropic的研究发现，当Claude执行长周期任务时，一旦感觉上下文窗口快填满，就会产生&amp;quot;焦虑&amp;quot;——像快要下班的打工人，开始疯狂敷衍，试图赶紧结束任务。&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Harness应运而生&lt;/strong&gt;。&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;&lt;strong&gt;Harness = Agent的运行容器 + 安全边界 + 调度控制器&lt;/strong&gt;&lt;/p&gt;
&lt;/blockquote&gt;
&lt;p&gt;它是一套系统，用来补偿当前AI不擅长的事：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;AI不擅长长期记忆 → Harness用进度文件、git历史、结构化来补&lt;/li&gt;
&lt;li&gt;AI评价自己太宽松 → 用独立评估Agent，带着具体标准测试&lt;/li&gt;
&lt;li&gt;AI容易偏航 → 用任务分解、合约约定来约束范围&lt;/li&gt;
&lt;/ul&gt;
&lt;h3 id="anthropic-vs-openai两种harness哲学"&gt;Anthropic vs OpenAI：两种Harness哲学&lt;/h3&gt;
&lt;table&gt;
&lt;thead&gt;
&lt;tr&gt;
&lt;th&gt;维度&lt;/th&gt;
&lt;th&gt;Anthropic&lt;/th&gt;
&lt;th&gt;OpenAI&lt;/th&gt;
&lt;/tr&gt;
&lt;/thead&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;&lt;strong&gt;侧重点&lt;/strong&gt;&lt;/td&gt;
&lt;td&gt;组织架构&lt;/td&gt;
&lt;td&gt;工程文化&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;strong&gt;核心设计&lt;/strong&gt;&lt;/td&gt;
&lt;td&gt;规划师-生成器-评估器三角闭环&lt;/td&gt;
&lt;td&gt;无人工手写代码，全由AI生成&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;strong&gt;约束方式&lt;/strong&gt;&lt;/td&gt;
&lt;td&gt;角色分工与评估反馈&lt;/td&gt;
&lt;td&gt;Linter和物理依赖边界&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;strong&gt;成本&lt;/strong&gt;&lt;/td&gt;
&lt;td&gt;更高（6小时/200美元 vs 20分钟/9美元）&lt;/td&gt;
&lt;td&gt;更高（完全AI驱动）&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;&lt;strong&gt;质量&lt;/strong&gt;&lt;/td&gt;
&lt;td&gt;显著提升（从&amp;quot;能看&amp;quot;到&amp;quot;能用&amp;quot;）&lt;/td&gt;
&lt;td&gt;系统级可靠性&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;
&lt;p&gt;&lt;strong&gt;Anthropic的案例&lt;/strong&gt;：&lt;/p&gt;</description></item></channel></rss>