阿里 ATH 事业群:吴泳铭的「孙正义」赌局
导读 阿里最新财报发布后,美股盘前大跌近 10%。但比数字更值得关注的是 ATH(Alibaba Token Hub)事业群的成立——这是吴泳铭第一次按照自己的意志改造阿里,也是他在二级市场寻找「孙正义」的大胆尝试。 ...
导读 阿里最新财报发布后,美股盘前大跌近 10%。但比数字更值得关注的是 ATH(Alibaba Token Hub)事业群的成立——这是吴泳铭第一次按照自己的意志改造阿里,也是他在二级市场寻找「孙正义」的大胆尝试。 ...
引言:从输入框到虚拟机 Anthropic产品负责人Felix Rieseberg说了一句话,让我瞬间清醒: “如果你雇了一个开发者,却告诉他只能通过邮件收发代码。这有多荒谬?我们对待AI就是这么做的。” 这句话道破了当前绝大多数AI产品的困境——我们把最聪明的AI困在一个输入框里,然后期待它能帮我们完成复杂工作。 Claude Cowork的解法很简单:给AI一台完整的电脑,让它像真人一样工作。 这不是渐进式改进,这是范式转移。 一、Cowork的本质:运行在VM中的Claude Code 不是简化版,是"超级集合" 产品 定位 用户群体 Claude Code 开发者工具,终端操作 程序员 Claude Cowork 通用Agent,图形界面 所有人 Felix强调:Cowork不是Claude Code的简化版,而是**“超级集合”**。 类比VS Code的诞生: 最初被认为是"更用户友好的Visual Studio" 最终成功是因为可扩展性和可定制性 Cowork正在经历类似路径 核心架构 用户请求 ↓ Cowork界面(图形化) ↓ Claude Code(Agent框架) ↓ Linux虚拟机(完整操作系统) ↓ 自由安装软件、执行命令、访问网络 VM的关键价值: 安全性:隔离环境,最坏情况也不会破坏主机 自由度:Claude可以像真人一样安装Python、Node.js等 拟人化:不要问"你能做什么",而是"给你一台电脑,你想做什么" 二、执行变得廉价:Anthropic的新工作方式 从"写备忘录"到"直接造" Felix分享了一个深刻变化: “以前:想法廉价,执行是难点。现在:执行也廉价了。” Anthropic内部新工作流: 传统方式 新方式 写备忘录,讨论方案 直接把所有候选方案都快速构建出来 技术选型会议 造出来,在焦点小组测试,选最好的 昂贵的决策成本 廉价的试错成本 这对产品开发的启示: 不要试图在没有用户测试的情况下想出好产品 把技术A和技术B都构建出来,让数据说话 这与一年前的工作方式有根本不同 平台基础设施的价值上升 Felix的另一个反直觉观点: “即使写代码的成本趋近于零,拥有平台基础设施的价值似乎在增加。” 原因: 构建新东西时可以把现有组件组合起来 不是重建所有基础设施,而是如何把乐高积木组合成对用户有意义的东西 这才是真正有价值的 三、Skills的诞生:一个意外的发现 从"懒得写代码"到产品特性 Skills的诞生过程很接地气: ...
引言:老黄的蛋糕,谁买单? 黄仁勋又画了一张图。 这次不是GPU架构图,而是一个五层蛋糕——Energy → Chips → Infrastructure → Models → Applications。 表面看是技术栈分层,实则是一场万亿美金的基础设施豪赌的动员令。而老黄站在最底层(芯片),笑眯眯地看着上面的四层玩家为他打工。 这不是技术分享,这是商业战略宣言。 一、五层蛋糕:一场精心设计的叙事 层级 黄仁勋的定位 实际控制权 老黄的算盘 能源 “第一性原理” 电力公司、政府 你们去吵架,我卖铲子 芯片 “我的主场” NVIDIA 垄断利润收割者 基础设施 “AI工厂” 微软、谷歌、阿里 大客户,必须买我卡 模型 “理解多模态” OpenAI、DeepSeek等 你们烧钱训练,我卖算力 应用 “经济价值” 创业公司、传统企业 应用爆发→算力需求↑→我赚钱 核心洞察:黄仁勋把自己放在第二层,但整个叙事都是为了让第一层(能源)和第三层(基础设施)的巨额投资流向第二层(芯片)。 “每一个token的生成,本质上都是电子在流动、热量被管理、能量被转化为计算能力。” 翻译:你们每生成一个token,我NVIDIA就收一次税。 二、能源:被刻意拔高的"第一性原理" 黄仁勋把能源放在最底层,称之为"第一性原理"。 但真相是: 能源不是瓶颈,芯片才是。全球电力充足,但H100/H200一卡难求。 能源问题被夸大,是为了让各国政府和企业相信——“我们必须大规模投资能源基础设施,才能发展AI”。 真正的赢家是卖芯片的,不是建发电厂的。 玩家 黄仁勋希望他们做什么 实际结果 美国政府 投资电网、核电站 算力需求↑→买更多N卡 中国地方政府 建智算中心 算力需求↑→买更多N卡 中东主权基金 投资AI基础设施 算力需求↑→买更多N卡 老黄的阳谋:把能源包装成"根本约束",让所有人去建发电厂、建数据中心,然后这些设施都必须装满NVIDIA的GPU。 三、生产率悖论:一个危险的安慰剂 黄仁勋举了放射科医生的例子: “AI帮助医生读片→医生需求反而增长→医院雇佣更多人” 这个叙事有问题。 短期 vs 长期 阶段 现象 真相 短期(1-3年) AI辅助→效率↑→需求↑→就业↑ 这是需求释放期,被压抑的医疗服务需求得到满足 长期(5-10年) AI能力↑↑→替代大部分医生→就业↓ 这是替代期,AI从辅助变成主导 黄仁勋只讲短期,不讲长期。因为: ...
一、引言:两种路径,一个战场 Palantir市值突破3600亿美元,华为在AI企业服务领域寻求突破。两者看似在不同赛道,实则在企业级AI平台这个终极战场上必有一战。 但这场较量不只是技术和产品的比拼,更是组织架构和决策机制的深层对抗。 本文从非财务视角切入,深度剖析Palantir的组织密码,对比华为的现状,揭示华为若要构建"中国版Palantir"必须补充的核心能力。 二、Palantir的组织架构:哲学家的商业实验 2.1 Alex Karp的管理哲学根基 Alex Karp不是典型的硅谷CEO。他拥有法兰克福大学哲学博士学位,师从批判理论学派。这种学术背景深刻塑造了Palantir的组织文化: 维度 传统硅谷CEO Alex Karp 教育背景 MBA/计算机 哲学博士(批判理论) 管理语言 增长、规模、效率 伦理、责任、后果 决策风格 数据驱动、快速迭代 反共识、长期主义 组织理念 层级分明、执行导向 扁平痛苦、思想对抗 Karp的核心管理哲学可以概括为三个关键词: ① “outsourcing of stupidity”(愚蠢外包)的拒绝 Karp猛烈抨击美国精英阶层的"救助文化"——做愚蠢决策、去白宫要救助、一年后拿奖金。他认为Palantir必须是这种文化的反面:决策者必须承担决策的全部后果。 “If you’re poor and you’re a soldier or you’re poor in the ghetto, when you’re wrong, you go to prison or you die.” 这种对"后果承担"的强调,直接影响了Palantir的组织设计。 ② “ethical perimeter”(伦理边界) Palantir明确拒绝与专制政府合作,退出不符合原则的订单。这种"有原则的赚钱"在硅谷极为罕见,却构建了独特的组织认同。 ③ “performative ethics”(表演式伦理)的批判 Karp嘲讽那些"口头上进步、实际上剥削数据"的科技公司。Palantir选择了一条更难的路:做有争议但自认为正确的事,并承担后果。 2.2 “痛苦的扁平结构”(Painful Internal Structure of Flatness) 这是Palantir组织架构最独特的特征。 ...
核心数据速览 阿里巴巴第三财季(截至2025年12月)关键指标: 指标 实际值 预期值 同比变化 营收 2,848.43亿元 2,897.9亿元 +2% 调整后每ADS收益 7.09元 12.34元 -42.5% 调整后净利润 167.1亿元 316亿元 -67% 经调整EBITA 233.97亿元 - -57% 云智能收入 432.84亿元 423.6亿元 +36% ✅ 现金及流动投资 5,601.75亿元 - 财务根基稳固 美股盘前反应:一度跌超5%,市场观望情绪浓厚。 云智能集团:AI引擎全速运转 ⭐⭐⭐ 指标 数据 意义 收入 432.84亿元 超预期 ✅ 同比增速 36% 加速增长 AI产品收入 连续10季度三位数增长 核心增长引擎 市场地位: Gartner云数据库管理系统魔力象限:连续6年领导者 Gartner生成式AI新兴市场象限:亚太唯一全象限领导者 IDC中国金融云市场:连续6年第一(43%份额,历史新高) 全球布局:29个地域、92个可用区,中国最大、全球领先的云服务商 全栈AI技术突破 1. 平头哥自研GPU:规模化量产 里程碑:自研GPU已实现规模化量产 服务对象:阿里内部业务 + 外部数百家企业客户 商业贡献:为云基础设施供应带来实质性贡献 2. 千问模型家族:开源领导者 里程碑 数据 Hugging Face下载量 突破10亿次 全球地位 最广泛使用的开源模型家族 霸榜成绩 7款Qwen3.5模型闯进前十,包揽榜单 Qwen3.5技术亮点: ...
现象级股价:空头死了3次,涨了30倍 时间节点 股价/市值 关键事件 2022年底-2023年初 <6美元(历史低位) 加息风暴、解禁抛压、商业化质疑 2023年 +167% AIP发布,AI商业化启动 2024年 +340% To B业务爆发,英伟达合作 2025年 207.52美元(历史新高) 市值逼近5000亿美元 当前 ~3600亿美元 累计涨幅近15倍 关键对比: 市值是Snowflake的5倍 高于Salesforce、SAP等传统软件巨头 市盈率超200倍 三大核心壁垒:本体论、AIP、FDE 壁垒一:本体论(Ontology)——哲学级的技术方法论 起源:2005年CIA投资,服务国防、情报、FBI等极端场景 核心定义: 用一套统一的语义与模型,将异构数据打通、定义并关联,将混乱信息整合成清晰的"作战地图" 技术特点: 推理透明性:决策链条完全可解释(vs大模型"黑箱") 数据融合:打通异构数据,统一语义标准 沉淀为产品:从G端打磨后向B端输出 财务表现: 2025年To G收入:54%(~24.3亿美元) 美国政府收入同比增长55%,达18.55亿美元 与美国陆军签署10年100亿美元协议 壁垒二:AIP——AI商业化引爆点 发布时间:2023年4月 核心能力: 维度 传统模式 AIP模式 部署周期 数月-数年 压缩至几天 技术栈 传统数据分析 生成式AI+大语言模型 产品形态 工具 企业AI操作系统 泛化能力 单一行业 跨行业复用 关键合作: 2025年10月:与英伟达深度合作 GPU加速计算+CUDA-X库+NEMO TRON模型 与Palantir本体论框架、AIP平台融合 财务加速: 年份 营收增速 关键驱动 2020-2021 40%+ 上市红利 2022-2023 17-24% 增速放缓 2024 29% AIP拉动 2025 56% To B爆发 2025 Q4 70%(整体)/137%(美国商业) 全面加速 壁垒三:FDE模式——重型交付的护城河 FDE(Forward Deployed Engineer)模式: ...
背景:算力霸权时代的架构反思 NVIDIA CEO 黄仁勋在 GTC 2026 主题演讲中指出: “人工智能正从以模型训练为主的探索期,全面跨入以智能体自主运行和大规模推理为主的工业化落地期。至2027年,全球AI基础设施订单需求将高达1万亿美元。” 然而,单纯依靠数据堆砌与GPU算力累加(Scaling Laws)正逼近物理定律、能源消耗与经济学的三重极限。 在这一背景下,月之暗面(Moonshot AI)创始人杨植麟在 GTC 2026 发表演讲《How We Scaled Kimi K2.5》,提出打破 Scaling 收益递减的三条路径: Token 效率的极限压榨 百万级长上下文的架构突围 智能体集群的自我组织 一、Kimi K2.5 核心规格 指标 数据 意义 总参数量 1万亿(1 Trillion) 超大规模 MoE 激活参数 320亿(32B) 每次前向传递 专家数量 384个 极度稀疏设计 激活专家 8个专家 + 1个共享专家 激活率仅 3.2% 预训练数据 15.5万亿 Tokens 高强度连续训练 二、第一重革命:Token 效率 - MuonClip 优化器 问题:Adam/AdamW 的 11 年瓶颈 传统优化器在处理万亿参数时力不从心 注意力分数爆炸(Logits Explosion):点积结果从 10-20 飙升至 1000+,导致梯度发散、训练崩溃 解决方案:MuonClip 核心机制: 基于牛顿-舒尔茨迭代的二阶优化器 Muon 集成QK-Clip 负反馈控制器 实时监控注意力 Logits,自动缩放 Query/Key 权重 实证数据: ...
引言:双双增长,AI成为核心引擎 3月18日,腾讯控股有限公司公布2025年度业绩。整体业绩保持健康增长,核心业务韧性强劲,现金流充裕,企业服务业务高质量发展、AI技术深度赋能全业务线成为全年增长的核心亮点。 董事会主席兼首席执行官马化腾表示,2025年腾讯保持了健康的增长,得益于AI技术提升了广告定向能力及玩家在游戏中的互动,以及云业务收入加速增长并实现了规模化盈利。 一、财务表现:收入毛利双双双位数增长 1.1 核心财务数据 指标 2025年数据 同比增长 总收入 7518亿元 +14% 毛利 4226亿元 +21% 经营盈利(非国际准则) 2807亿元 +18% 经营利润率 37% - 权益持有人应占盈利 2596亿元 +17% 1.2 现金流表现优异 指标 数据 同比增长 自由现金流 1826亿元 +18% 总现金 4949亿元 +19% 充裕的现金流为AI研发、基础设施升级与业务拓展提供坚实支撑。 二、To B业务:腾讯云实现规模化盈利 2.1 金融科技及企业服务业务 2025年,金融科技及企业服务业务全年收入2294亿元,同比增长8%,呈现稳健增长、结构优化的良好态势。 关键亮点: 企业服务收入增长接近20%,成为板块增长核心引擎 国内及海外云服务需求持续旺盛 AI相关服务需求快速释放 微信小店交易额攀升带动商家技术服务费增长 2.2 腾讯云里程碑:规模化盈利 尤为关键的是,腾讯云在2025年实现规模化盈利,受益于: 企业AI需求上升 PaaS及SaaS产品市场领先优势扩大 供应链持续优化 这标志着云业务迈入高质量可持续发展阶段。 三、AI战略:混元3.0即将发布 3.1 混元模型持续升级 AI技术作为腾讯战略投入重点,2025年实现技术突破与场景落地双丰收,全面驱动各业务提质增效。 混元模型发展历程: 时间 里程碑 2025年12月 混元2.0模型上线,推理能力与效率显著提升 2026年1月 混元图像3.0图生图模型接入元宝,春节活动带动AI生图日均调用量增长30倍 2025年11月 混元3D创作引擎推出国际站,模型API上线腾讯云国际站 混元3D模型社区下载量已突破300万,在全球开发者和3D创作者群体中积累了广泛用户基础。 3.2 混元3.0重大升级预告 腾讯在财报发布后的媒体会上透露: ...
引言:技术叙事 vs 生活叙事 如果你最近在关注AI Agent,可能已经被各种"能力展示"刷屏,从自动写代码到全流程办公自动化,几乎每一条都在强调效率与技术跃迁。 但问题在于,这些内容大多停留在行业内部的自嗨叙事里,而真正的普通用户,其实并没有被真正带进来。 而在于谦视频播客《多新鲜呐》最新一期里,这件事被于谦用一种极其“非技术"的方式解决了。 这期节目表面是在聊OpenClaw,但本质上更像一次**“AI产品用户体验的公开测试”**,而测试员,是一个57岁的相声演员。 一、用户关心什么:结果是否贴近自己 先看一个很典型的瞬间: GenJi现场演示OpenClaw生成于谦的铠甲特效视频,整个过程其实是标准的Agent任务流拆解,从需求输入到工具调用再到输出结果,逻辑非常"工程化”,但于谦的第一反应不是"这个系统怎么实现",而是—— “这个很酷,而且很像我。” 划重点,这就是第一个关键点:用户关心的是结果是否贴近自己,而并非过程是否先进。 二、语言风格的魔力:“得嘞” 再往后,OpenClaw远程操作电脑,通过手机帮于谦搜索B站视频并截图返回,其中一句**“得嘞”**,直接让于谦当场愣住。 好家伙,一个AI竟然会说"得嘞",这在技术上只是语言风格匹配,但在用户感知里,这是**“它即是我”**。 这也是为什么,于谦对这个点的兴趣,会明显高于整个系统架构本身。 产品启示:技术人员很容易忽略——用户究竟对什么感兴趣。真正的用户需求,可能不是你想的那样。 三、数据分析:我只关心能不能替我省事 再看第二个环节:数据分析。 GenJi让OpenClaw分析《多新鲜呐》哪期最开心,并生成一份情绪报告,从弹幕、评论中提取情绪词,再计算正向情绪占比。 这一套操作在业内其实很常见,但于谦的关注点依然很"用户"—— “以后我是不是可以不用自己翻评论了?” 于谦这句话背后的潜台词是:我不关心你怎么做,我只关心你能不能替我省事。 而这,恰恰是很多AI产品在对外沟通时最容易忽略的部分。 四、风险意识:“没准哪天就出来个于谦门” 但真正把这期节目拉到另一个层级的,其实是后半段。 当话题进入"理性养虾",于谦的关注点迅速从"好玩"转向"风险",尤其是那句—— “没准哪天就出来个于谦门。” 这不是段子,这是一个极其真实的用户体验后的反馈: 当你把权限交给AI,你到底失去了什么控制权。 相比之下,业内讨论更多的是: 模型能力 工具生态 Skill数量 而于谦代表普通人问出的,则是: “我要不要装” “安不安全” “会不会出事” 这些问题看似基础,但正是决定一个产品能不能真正破圈的关键。 五、技术逻辑 vs 人话翻译 所以回到这期节目本身,你会发现一个很有意思的结构: 角色 职责 价值 GenJi 讲"技术逻辑" 展示能力 于谦 把它"翻译成人话" 补齐用户视角 这个翻译过程,其实是在补齐一层视角,是一种完整的用户路径模拟。 当AI行业在讨论Token、Skill、Agent架构的时候,于谦在问的是: 它能不能帮我看评论 能不能发到我手机 会不会泄露我的照片 六、为什么这一期让人"终于听懂了AI" 那么问题来了:为什么这一期视频节目,会让很多人觉得"终于听懂了AI"? 因为它第一次把技术叙事,换成了生活叙事。 技术叙事 生活叙事 能做什么 我用它能干嘛 模型能力 我会不会出事 系统架构 它居然会说得嘞 这一步,其实就是AI从行业走向大众的关键一步。 ...
引言:十年没人动过的地基,被撬动了 同样的算力,同样的数据,凭什么效果不一样? 大多数人的直觉是:模型更大、数据更好、工程师更厉害。但 Kimi 给出了一个更出人意料的答案。 3月16日,月之暗面 Kimi 发布了一项重磅技术报告《Attention Residuals》(注意力残差)。这项技术针对几乎所有现代大模型都在使用的残差连接结构进行了改造,并在实验中证明:用同样多的算力,新方法训练出的模型效果相当于基线模型花费 1.25 倍算力才能达到的效果。 报告发布后,得到了许多硅谷顶尖 AI 人物的点赞背书: 人物 评价 马斯克 “Impressive work from Kimi(令人印象深刻的工作)” Jerry Tworek (OpenAI o1 主要发明者) “深度学习 2.0"的开端 Andrej Karpathy (前 OpenAI 联创) “看来我们还没把『Attention is All You Need』这句话按字面意思理解透” 技术论文背后的信号或许更值得关注:深度学习最基础的范式,正在发生变化。 一、残差连接:从 ResNet 到 Transformer 1.1 为什么需要残差连接? 现代大模型,其实都是由很多层神经网络叠加而成的,少则几十层,多则上百层。信息从底部输入,一层一层往上传递,每一层都对信息做一次加工,最终在顶部输出结果。 可以把它想象成一条流水线上的工人:原材料从第一道工序进来,每个工人对它加工一遍,再传给下一个,最终出来成品。 问题是,流水线越长,越难训练。 假设第50道工序的工人犯了错,你想纠正他,就得把这个「纠错信号」一路往回传,经过49个工人才能传到第1个。传着传着,信号就消失了,底层的工人根本不知道自己哪里出了问题。 1.2 ResNet 的解决方案 为了让这么深的网络能够训练起来,知名学者何恺明团队在2015年发表了一篇题为《Deep Residual Learning for Image Recognition》的论文,引入了一个关键设计,叫做残差连接(Residual Connections): 每一层在加工信息的同时,还会保留一条「直通道」,把原始输入原封不动地加到加工结果上,再往下传。这条直通道让梯度在反向传播时可以绕过中间的变换,一路流回底层,从根本上解决了深层网络难以训练的问题。 这篇论文后来成为计算机视觉乃至整个深度学习领域引用次数最多的论文之一,残差连接也沿用至今,是几乎所有大模型的基石。 1.3 残差连接的局限 残差连接虽然好用,但它做信息聚合的方式非常粗暴:把所有前面层的输出,无差别地等权相加。 还是用流水线来比喻。到了第51道工序,这个工人手里拿到的,是前面50道工序所有产出物的等量混合,每道工序的产出各占一份,不多不少。 他没有办法说: “我想多要一点第3道工序的原料” “第20道工序的东西对我没用,少给我一点” 这带来了一个名为 PreNorm 稀释 的实际问题:随着网络越来越深,累积叠加的信息越来越多,每一层自己的贡献在庞大的总量里越来越微不足道。越靠后的层,想要让自己的声音被「听见」,就得输出越来越大的数值,否则就会被淹没。 ...