微软最怕的不是亏钱
## 01 触发事件
The Verge 基于 Musk v. Altman 诉讼披露的法庭文件称,早在 2017 年夏天、OpenAI 展示 Dota 2 bot 能击败职业选手后,Microsoft CEO Satya Nadella 与 OpenAI CEO Sam Altman 就已开始讨论更深合作;而微软内部高管明确担心的一件事是,OpenAI 可能会转去 Amazon,并对外 “shit-talk” Azure。
这不是普通的八卦式邮件泄露。
时间点很关键:2017 年,OpenAI 还远不是今天这个流量入口;Azure 也还没有因为大模型形成今天这种“AI-first cloud”叙事。微软当时担心的,不是一笔财务投资跑掉,而是一个潜在平台级工作负载会把基础设施层的话语权带去 AWS。
我没看过完整法庭证据链,The Verge 给到的是二手整理,所以对内部讨论语气和上下文,我可能会误判。但即便只看已披露内容,信号已经足够强:微软从一开始就把 OpenAI 视作 cloud distribution asset,而不是单纯的 research lab 股权标的。
微软担心的不是 OpenAI 成不成功,而是它成功之后替谁定义默认基础设施。
## 02 这事的真正含义
表面上看,这是“微软押注 OpenAI 很早、眼光很好”的又一份旁证。
但这不是重点。
这事真正说明的是:在 AI 产业里,最值钱的资产未必是 model IP,本质上是 demand aggregation。谁能聚合最有价值、增长最快、最不价格敏感的 inference demand,谁就能反向塑造上游硬件采购、网络架构、KV cache 优化、训练排期,甚至 API 定价方式。
OpenAI 在 2017 年当然还没有今天的 GPT 流量,但它已经显示出一个罕见特征:它可能成为下一代计算范式的“需求组织者”。Dota 2 bot 不是收入,甚至不是产品;它是 capability proof,证明 OpenAI 有机会成为吸走顶级算力预算的那个黑洞。
微软真正害怕的,不是 Amazon 得到一个明星创业公司。
它害怕的是 Amazon 得到一个“标准制定者”。
如果 OpenAI 跑去 AWS,后果不是少了一单云合同,而是 AWS 可以对外讲一个更强的故事:最前沿模型训练和推理天然更适合跑在 AWS;Azure 只是 enterprise cloud,不是 AI-native cloud。那种 narrative 一旦成型,后面 developer 选型、startup 默认部署、资本市场预期,都会顺着这个叙事滑过去。
这才是 cloud 竞争里最隐蔽、也最贵的东西:不是 revenue share,而是心智默认值。
我没在 Azure 或 AWS 内部跑过大规模模型集群,所以对具体资源调度痛点只能基于行业公开信息判断。这点我可能看重了 narrative,低估了实际容量与供货协议的重要性。但在平台竞争里,叙事往往先于财务体现。
换句话说,微软投 OpenAI,买的不只是 upside。
买的是 OpenAI 不去帮助别人建立 AI moat。
这和很多 AI startup 今天看 lab API 供应商的方式也类似。你以为自己在采购 token,实际上你在把自己的用户体验、延迟、feature roadmap、甚至 gross margin,部分外包给上游模型厂商。上游一旦变成下游入口,双方关系就从 supplier 变成“合作中带替代”。
微软当年已经看见了这一层。
## 03 历史类比 / 结构对照
这件事更像 2014 年前后的 AWS,而不是 2022 年的 ChatGPT。
为什么这么说。
ChatGPT 的历史意义,在于它证明了自然语言界面可以成为 mass-market product。那是应用层拐点。
而这次泄露文件折射出的,是更底层的平台拐点:云厂商开始意识到,AI lab 不只是买 GPU 的客户,而是可能决定“下一代云默认跑在哪里”的超级渠道。
类比 2014 年的 AWS,一个关键转折是 startup 先在 AWS 上长出来,然后 enterprise IT 才被迫接受“默认基础设施正在迁移”。不是因为 AWS 先去拿下 enterprise,而是因为开发者与新工作负载先完成了投票。
OpenAI 对 Azure 的价值,也在这里。
它不是传统意义上的大客户,而是“示范性工作负载”。只要最前沿模型训练、最复杂推理服务、最大规模 consumer AI traffic 默认在 Azure,Azure 就能向市场证明自己不是追赶者,而是 AI stack 的 first-class platform。这个证明会外溢到 GitHub Copilot、Azure OpenAI Service、企业采购、甚至数据中心资本开支正当性。
这和 iPhone 对 AT&T 也有一点相似。AT&T 当年拿到的不是一台手机,而是一个重写流量结构的终端入口。微软想拿到的也不是单一合作伙伴,而是把 AI 的增量需求锚定在自己云上的入口。
真正稀缺的不是模型本身,而是哪个模型先把开发者、消费者和企业推理需求带进你的地盘。
这里还有一个更深的结构矛盾:cloud provider 想要稳定、可预期、高毛利的基础设施租赁业务;frontier lab 想要的是极端弹性、定制化硬件协同、战略自主权,以及必要时对 cloud partner 施压的能力。两者天然互相需要,也天然互相提防。
所以微软担心 OpenAI “storm off to Amazon”,并不说明合作脆弱,恰恰说明这类合作的本质从来不是普通 vendor contract,而是半垂直整合、半相互绑架。
我可能把这种张力说得过于结构化,毕竟很多合作在具体执行层面还是靠人和 deal terms。但今天看 OpenAI、Anthropic、Google、Amazon 之间的交叉绑定,你会发现这种模式已经成为 AI infra 的常态,而不是例外。
## 04 对 AI builder 意味着什么
对 AI builder 来说,这件事最直接的启发不是“微软很有远见”。
而是:不要把 model access 当成纯商品。
如果连 Microsoft 这种级别的玩家,都在 2017 年担心“谁来定义默认 AI cloud”,那应用层团队今天更该问的是:自己的 distribution、cost basis 和 switching cost 被谁控制。
这周和这个月,至少有四个决策值得重看。
第一,重新审视单一模型依赖。
如果你的产品体验、Agent workflow、tool calling 逻辑、长上下文表现,全都围绕单一模型供应商调优,那么你以为自己拥有用户,其实只是拥有一个被上游 API 托管的壳。尤其当上游同时做自有应用、企业销售、Agent 平台时,你的议价能力会快速下滑。
第二,把 routing 能力当成产品核心,而不是 infra 附件。
model routing 过去像是“省点钱”的工程优化,现在更像战略保险。不同任务在不同模型之间切换,不只是 token 成本问题,还关系到供应稳定性、区域可用性、速率限制、context window、prompt caching 兼容性。OPCX.AI 这类网关本质上卖的也正是这层抽象:把上游模型政治学,尽量折叠成可控的接口层。
第三,看 cloud partner 时,不要只比较单价。
真正会被定价的是确定性供给。便宜模型、便宜 GPU、便宜 batch API,在容量紧张时都可能失效。builder 更该关心的是,谁能持续给你稳定 latency、明确 SLA、可迁移接口和足够透明的计费颗粒度。我没在你们各自的 production 环境里测过实际故障率,所以这点我可能低估了具体场景差异,但供给确定性通常比报价表更重要。
第四,区分“能力领先”与“平台中立”。
最强模型供应商,不一定是对你最安全的合作方。如果对方未来要做你的 IDE、Agent、workspace、vertical app,那你接入得越深,未来被抽走 margin 或被复制功能的概率越高。builder 需要的是 optionality,不是情感站队。
短一点说:在 AI 里,接口层就是生存层。
## 05 反方观点 / 风险
我前面的判断,最大的风险是把一份法庭文件中的内部担忧,上升成了过度宏大的行业结构解释。
也许事实更简单:任何大公司在谈战略投资时,都会担心标的转投竞争对手;“storm off to Amazon” 未必是 AI 时代特有信号,只是常规 deal paranoia。若是这样,这篇文章的重要性就会被高估。
第二个反方观点是,OpenAI 对 Azure 的意义可能并没有我说的那么不可替代。今天回头看,真正决定 cloud AI 竞争格局的,也许不是绑定一家 lab,而是谁能拿到更多 GPU、谁能自研更强 accelerator、谁能把 networking、storage、KV cache、serving stack 调得更好。如果 capacity 才是核心瓶颈,那么 narrative 的价值会低于我上面的判断。
第三,builder 也可能高估“多模型 routing”的现实收益。很多产品最终还是会收敛到一两个主力模型,因为 eval、prompt、tool schema、输出稳定性、compliance 都会让切换成本非常高。理论上的 portability,常常在真实系统里被 provider-specific optimization 吃掉。我没跑过你团队的全链路评测,这点我可能偏战略化,低估了工程复杂度。
第四,微软自己的例子也说明,深度绑定上游未必带来长期控制权。即便微软给了算力、资本和 distribution,OpenAI 依然在争取自主性、接口权、品牌权、甚至多云空间。也就是说,平台方未必真能把 frontier lab 变成自己的 moat;反过来,lab 也可能只是暂借平台之力,等长成后再重谈权力边界。
所以更冷静的结论应该是:
这起披露不证明微软已经赢了,也不证明 OpenAI 会成为任何一家 cloud 的附庸。
它真正提醒 builder 的,是另一件更朴素、也更残酷的事:AI 产业链里最危险的依赖,往往在增长最快的时候最不显眼。等你发现自己不是在消费 API,而是在替别人巩固 distribution,切换成本通常已经形成了。