事 件概述

据 Cloudflare 工程博客,Cloudflare 今日宣布将其 AI Platform 扩展为 统一推理层,开发者可通过单一 API、单一计费积分池以及一行代码变更,访问来 自 12 家以上厂商的 70 余个模型——涵盖 OpenAI、Anthropic、Google、阿里云、字 节跳动、AssemblyAI、InWorld、MiniMax、Pixverse、Recraft、Runway 和 Vidu。

此次新 增能力在现有 AI.run() Workers binding 的基础上进行了 扩展——该接口此前仅支持 Cloudflare 自托管模型,现已 能够将请求路由至第三方厂商。调用 anthropic/claude-opus-4-6 的代码形 式与调用任意 Workers AI 模型完全一致:

const response = await env.AI.run('anthropic/claude-opus-4-6',
 {
  input: 'What is Cloudflare?',
}, {
  gateway: { id: "default" },
});

根据 Cloudflare 的公告,面 向非 Workers 环境的 REST API 支持计划于未来数周内上线。

此举将 Cloudflare 旗下两款现有 AI 产品——AI Gateway(可观测性、缓存、路由)与 Workers AI(托管推理)——整合为统一的服务界面。公告中提及的 AI Gateway 近期更新包括:全新改版的控制台、无需配 置的默认网关、上游故障自动重试,以及更精细的日志管控能力。

为何重要

这一架构方向的核心赌注在于:将 厂商无关的推理能力作为基础设施来提供 。Cloudflare 正将自身定位为开发者与碎片化模型市场之间的网络层——这与 其在 DNS、CDN 和 Zero Trust 领域的打法如出一辙,如 今将同样的逻辑延伸至 AI 路由。

对工程团队而言,这 一方案带来的直接运营价值体现在三个层面:

  • 无需改动代码的故障切换:上 游厂商故障时的自动重试机制,意味着单一厂商的响应缓 慢或宕机不会级联扩散为应用层面的服 务中断。
  • 边缘侧的延迟管控:Cloudflare 的全球网络负责处 理路由调度,这对 Agent 类工作负载至关重要。正如公告所指 出的,在一个包含十次调用的 Agent 链路 中,单一厂商的缓慢响应所带来的额外延迟是 500ms 而非 50ms——相比简单的聊天机器人场景,惩罚倍数高 达 10 倍。
  • 统一的成本可视化:跨厂商的单一积分池,大幅简化了 运行异构模型栈团队的 FinOps 管理—— 例如,在单一 Agent 工作流中同时使用低成本分类模型、用于规划的推 理模型以及轻量级执行模型。

从竞争格局来看,此举对 AWS Bedrock 和 Azure AI Foundry 等聚合型平台形成直接压力——后 者同样提供多模型访问,但均局限于各自封 闭的云生态系统之内。Cloudflare 的核心主张是 云中立路由:无论你的应用运行在 AWS、GCP 还是裸金属服务器上,模型调用均经由 Cloudflare 的边缘节点完成。

对模型厂商而言,进入 Cloudflare 面 向开发者的模型目录,是一次有实质 意义的触达扩展——对于名单上 的新兴厂商(InWorld、MiniMax、Vidu)而言尤为 如此,它们正在争夺开发者心智,而对 手是已深度集成的 OpenAI 和 Anthropic。

技术细节

此次统一的实现方式,是将 各厂商特有的鉴权流程、请求格式化和 响应归一化,统一抽象在 AI.run() 接口之 后。开发者通过 provider/model-name 的 slug 命名规范来指 定模型,平台则透明地处理凭证管理与协议转 换。

公告中着重强调的关键架构特性如 下:

  • 自动重试:上游厂商故障时自动触发重试,开发者无需在 业务侧编写重试逻辑。
  • 统一日志:精细化 的日志管控跨所有厂商统一生效,无论 调用哪个模型,均可获得一致的可 观测性体验。
  • 默认网关:零配置的网关初始化,降低了在 新项目中启用 AI Gateway 功能(缓存、限流、日志)的门槛。
  • 单一凭证界 面:一套 Cloudflare 凭证与积分即可覆盖所有厂商 的调用,彻底消除逐厂商管理 API Key 的负 担。

模型目录同时涵盖直接托管于 Workers AI 基础设施的开 源模型,以及来自主流厂商的专有 API 透传模型。公 告中并未详述具体的路由架构——即 Cloudflare 究竟是代理转发请求,还是向客户端下 发直连重定向。

后续看 点

  • REST API 发布(未来数周):Cloud flare 已承诺为非 Workers 环境提供 REST API 支持。上线时的 厂商覆盖范围,将决定其对 Python 及 非 JavaScript 后端技术栈的适用性。
  • 定价结构:公告提及了 统一积分体系,但未披露相对厂商官方定价的 溢价幅度。预计在 REST API 上线后数日内, 开发者社区将展开 Cloudflare 积分与直连 厂商 API 成本的对比测评。
  • 厂商扩展节奏:公告 表示 Cloudflare 正在"快速扩充"模型目录。值 得关注的是尚未列入名单的厂商——尤其是 Mistral、Cohere 以及 Meta 的托管 Llama 端点——这些将成为对抗 Bedrock 模 型阵容的差异化竞争筹码。
  • AWS 与 Azure 的应 对策略:Bedrock 和 Azure AI Foundry 均已拥有多模型目录,但 缺乏 Cloudflare 的边缘路由优势。随着厂商无关推理的 叙事逐渐成势,预计两者将在 2025 年 Q3 相继发布定位更新。
  • AI Gateway 功能对齐:随着平台走向统一,此前 仅限 AI Gateway 的功能(语义缓存、限流)有望延伸至第 三方模型调用。一旦有相关公告落地,将 对高吞吐量推理工作负载的成本测算产生显 著影响。