事件背 景
据2025年7月发布于掘金(
Juejin)的技术实操文章,国内
两家大模型厂商——智谱AI 与 MiniMax——已
相继发布面向开发者的接入指南,
主要目标群体是因地区访问限制而无
法正常使用 Anthropic 和 OpenAI API 的工程师
。两家厂商均提供与 Anthropic SDK 及 Claude Code 工
具链兼容的 API 端点,开发者只需替换 base
_url,即可将请求从 Anthropic 服务器重
定向至国内基础设施,配置改动极为轻量。
智谱AI 的 GLM-5 与 GLM-5-Turbo 模型通
过 https://open.bigmodel.cn/api/coding/paas/v4 提供服务,在
Claude Code 的 ~/.claude/settings.json 中覆盖 ANTHROPIC_BASE
_URL 和 ANTHROPIC_AUTH_TOKEN 两个字段即可完成
配置。MiniMax 则通过 https://api.minimax.io/anthropic 路由请求,标
准 anthropic Python SDK 调用仅需修改 base_
url 和 api_key 两个参数。
为何值得关注
对于中国工程团队——或任
何在采购美国模型服务方面存
在合规约束的组织而言,这一方案
提供了一条真正意义上的「即插
即用」替换路径。Anthropic SDK 兼容层意味着无
需重构代码:已使用 client.messages.create() 模
式的团队,可以在不触碰任何应用
逻辑的前提下将请求重定向至上述两家厂商。
这 一现象也折射出国内大模型生态的成熟化 进程。两家厂商的竞争维度已不仅限于模型能 力本身,更延伸至 API 接口的兼容性——事实上,它们都 将 Anthropic 的 API 设计视为值得对标 的事实标准。这对 Anthropic 开发者心 智的占有率是一个有力的市场信号,即 便在其无法直接进行商业拓展的市 场中亦是如此。
对于正在评估 AI 基础设施供应链风险的 CTO 而 言,上述两家厂商提供了有据可查的备 选路径。此外,其定价结构与 Anthropic 存在显 著差异——据原文价格表,GLM-4.7-Flash 在 200K 上下文范围内免费提供。
技 术细节
智谱AI:GLM 模型系列与 定价
根据原文,智谱AI 当前模 型阵容如下:
- GLM-5-Turbo:输入 ¥5/M tokens(0– 32K 上下文),输出 ¥22/M;输入 ¥7/M(32K+ ),输出 ¥26/M
- GLM-5:输入 ¥4/M(0 –32K),输出 ¥18/M;输入 ¥6/M(32K+),输出 ¥22/M
- GLM-4 .7-Flash:输入 ¥0.5/M,输出 ¥3/M(最 高支持 200K 上下文)
- GLM-4.7-Flash 200 K:据原文价格表,该版本目前免费提供
智谱AI 还推出了专为编程工作负 载设计的 CodingPlan 订阅套餐,原文称其 相较按 token 计费最高可 节省 60% 以上成本。据文章描述,该套餐每 日本地时间 10:00 开售后迅速售 罄,供给明显受限。
通过 settings.json 配
置 Claude Code 的示例如下:
{
"env": {
"
ANTHROPIC_BASE_URL": "https://open.bigmodel.cn/api/coding/paas/v4",
"ANTHROPIC_AUTH_TOKEN": "your-api-key",
"ANTHROPIC_DEFAULT_
OPUS_MODEL": "glm-5.1",
"ANTHROPIC_DEFAULT_SONNET_MODEL": "glm-5-turbo"
}
}智
谱AI 还提供官方 CLI 辅助工具(npx @z_ai/coding-helper),可
自动化完成 CodingPlan 加载至 IDE、MCP 服务配
置及用量监控等操作,有效降低多
人团队批量上手时的手动配置成
本。
MiniMax:按调用次数计费模式
MiniMax 采用了结构上 截然不同的计费方式:以年订阅制 为主,按调用量分级定价,并设有 5 小时刷新窗口机制。据原文价格表:
- Starter:¥290/年——每 5 小时窗口 600 次调用,50 TPS
- Plus:¥490/年——每 5 小时窗口 1,500 次调用,50 TPS
- Max: ¥1,190/年——每 5 小时窗口 4,500 次调用,50 TPS
- Max Speed:¥1,990/年——每 5 小 时窗口 4,500 次调用,100 TPS
- Ultra Speed:¥8,990/年——每 5 小时窗口 30,000 次调用 ,100 TPS
通过 Anthropic SDK 接入 MiniMax 的 MiniMax-M2.7 模型,仅需修改两个参数:
import anthropic
client = anthropic.Anthropic(
base_url="https://api.minimax.io/anthropic",
api_key="your-token-plan-key"
)
response = client.messages.create(
model="MiniMax-M2.7",
max_tokens=4096,
messages=[{"
role": "user", "content": "write a quicksort"}]
)后续值得关注的方 向
- 定价稳定性:原文指出,智谱AI 的 CodingPlan 自上线以来已三度涨价 ——签订年度合同的团 队在续约时应将调价风 险纳入考量。
- 模型能力基准测试:原文未提供 两家厂商的编程能力基准评分。针对 GLM-5 与 MiniMax-M2.7 在 SWE-bench 或 HumanEval 上的独立 评测,将有助于厘清这些模型相对 于 Claude Sonnet 或 GPT-4o 的实际水平——建议关 注未来 30 天内的第三方评测结果。
- OpenCode 集成:智谱AI 在支
持 Claude Code 的同时,已明确支持 OpenCode(
opencode-ai)。随着 OpenCode 在 规避 Anthropic 定价的开发者群体中持续渗透,这一集成 路径的重要性将进一步凸显。 - Anthropic 的中国市 场策略:专门针对 Anthropic 工具链的 API 兼容克隆的涌现,以及背后驱动这一现象的开发者需求,是一 个值得 Anthropic 正视的市场信号——尤其是当 亚太地区企业采购团队开始系统性地 转向国内替代方案时,区域定价策 略或本地合作伙伴关系或许是 必须认真考量的应对方向。