## 01 触发事件 2025 年,宏微科技公告称,自主研发的 NCBSiC 模块已通过海外主流 AI 服务器厂商整机认证,并已实现小批量供货;同时,公司面向 AI 服务器电源需求布局的高压 SST 产品和 GaN 产品,正在与国内外头部厂商联合研发、送样。另一条更容易被忽略的信息是,公司自 4 月 1 日起对部分非核心产品提价,平均涨幅约 10%,理由是上游贵金属成本上涨,且大部分客户已接受。 这条新闻表面上是在说一家功率半导体公司切入 AI 服务器链条。 这才是它真正说的事:AI 基建的瓶颈,正在从 compute 芯片向 power conversion、thermal 和系统级认证能力扩散。 我没在宏微科技内部跑过其认证流程,也没看到具体客户名单,所以这里不能把“小批量供货”误读成已经形成大规模 revenue。只是,整机认证这四个字,含义比“送样”重得多。 整机认证并不是 PR 语言里的“合作推进”。 它意味着器件已经进入系统级可靠性、兼容性、稳定性验证的门槛之内。 ## 02 这事的真正含义 问题不在“又一家中国公司做了 SiC 模块”,而在 AI 服务器供给链的价值捕获,正在从 GPU board 向上游 power electronics 重新分配。 过去两年,市场过度聚焦在 NVIDIA GPU、HBM、先进封装、交换芯片。 但真正部署过高密度集群的人知道,rack power density 往上打之后,供电链路不再是配角。你可以买到 GPU quota,不等于你能顺利把系统交付上线。电源效率、热损耗、功率密度、长期可靠性,最后都会变成数据中心 PUE、停机风险和 unit economics 的一部分。 SiC 的意义就在这里。 SiC 相比传统硅器件,核心价值不是“新材料”这三个字,而是在高压、高频、高温场景下更低损耗、更高效率、更高功率密度。对于 AI server power supply,这意味着同样的功率输出下,更小体积、更低发热、更高转换效率,进而影响整柜设计和机房电力约束。 如果宏微科技的 NCBSiC 模块真的已经通过海外主流 AI 服务器厂商整机认证,那么它切入的不是边缘配件,而是高端算力基础设施里一个过去不太被定价、现在开始被定价的层。 那个真正会被定价的,不只是芯片本身,而是“可被 hyperscale 体系接受的供电可靠性”。 这和 token economics 不是两条线。 推理成本曲线往下走,很多人直觉上会认为应用层会越来越便宜。但如果 inference volume 暴涨,数据中心总功耗和功率密度继续上升,那么单位 token 的资本开支压力并不会只由 model efficiency 决定,还会由电力侧器件效率决定。我没看过这家公司的实际 ASP 和毛利结构,这点我可能误判,但供电侧在 AI infra stack 里的战略位置,显然在上移。 另一个值得注意的点,是“部分非核心产品涨价 10%,客户接受度良好”。 这说明两件事。 第一,上游贵金属涨价已经开始向器件端传导,不只是 GPU、HBM 那种 headline scarcity,连功率器件也在承压。 第二,至少在部分 segment,客户没有太多 switching 空间,或者切换成本高于这 10% 的涨幅。你可以把这理解成一个很轻微但真实的 moat 信号:当器件进入验证体系后,价格弹性会改善。 ## 03 历史类比 / 结构对照 这更像 2014 年 AWS 之后的数据中心基础设施重估,而不是 2022 年 ChatGPT 式的产品爆发。 ChatGPT 那一刻,行业看见的是需求侧冲击:原来自然语言接口可以把模型消费拉到大众层。 而 AWS 的长期含义,是企业开始重新理解“软件服务”的底层约束来自机房、网络、电力、虚拟化、资源调度。今天 AI 也是一样。真正的拐点不是又多了一个模型 API,而是基础设施里那些此前被当成 commodity 的环节,重新变成战略约束。 如果要再找一个更贴切的类比,我会想到 iPhone 之后的 mobile supply chain。 当终端架构发生变化,最先被重估的不只是整机品牌,也包括射频、传感器、电池、连接器、封装、工艺良率和认证体系。AI server 现在就在经历类似过程。GPU 仍然是皇冠,但皇冠下面的 power delivery network 正在升级,能否进入认证名单,决定的是你有没有资格吃到这轮 capex。 每一轮平台迁移,最先被市场低估的,往往不是最显眼的核心器件,而是那些把系统真正跑起来的“非主角”。 我没法确认宏微科技会不会成为长期赢家,因为 power semiconductor 赛道最终还要看良率、交付、一致性、客户集中度和海外政策变量。但结构上看,这类公司获得的不是一笔订单,而是一张进入 AI infra 新账本的门票。 ## 04 对 AI builder 意味着什么 对 AI builder 来说,这条新闻不是拿来炒二级市场概念的,而是提醒你重新理解 model access 背后的成本结构。 第一,如果你是模型 API 消费者,不要再把未来 12 个月的价格预期完全建立在“模型越来越便宜”上。 模型本身的算法效率、MoE 路由、KV cache 优化、batch 推理、speculative decoding,确实会继续压低边际成本。但如果供电、机柜、散热、运维和 capex 约束持续存在,token 价格下降不会是线性的,甚至可能出现“模型更强但价格平台期更长”的情况。我没掌握各家 cloud provider 的实际采购与折旧表,这里只能做方向判断。 第二,如果你是做 model routing、AI gateway、agent infra 的团队,应该更重视供应稳定性,而不是只盯 benchmark。 一旦上游 power 和整机交付成为 bottleneck,真正重要的不只是哪个模型更强,而是谁能在容量紧张时稳定拿到可用 tokens。对于客户来说,latency SLA、availability、地区合规和价格波动,可能比某个 benchmark 多 2 分更重要。 第三,如果你在评估 open source self-hosting,不要只算 GPU 成本。 很多团队算自建账时,默认 GPU 折旧 + 工程师工资 + 机房费用就差不多了。但高密度推理集群往后走,power delivery 与 cooling 的工程复杂度会抬升。特别是当你想把 utilization 打高、把 context window 拉长、把多模型路由做细的时候,基础设施的隐性成本会吞掉一部分你以为能拿到的套利空间。 第四,如果你在看 AI infra 投资逻辑,这类信号说明“卖铲子”也在分层。 不是所有上游器件都能吃到 AI 红利。真正有价值的是那些已经跨过 hyperscale 或主流 server vendor 认证门槛、可以进入量产验证闭环的公司。送样不是 moat,认证和持续供货才更接近 moat。 ## 05 反方观点 / 风险 最直接的反方观点是:这可能只是一次被市场过度叙事化的小批量导入。 “小批量供货”离大规模 revenue 兑现,中间隔着量产爬坡、良率稳定、海外客户持续复购、价格谈判和竞争对手反击。尤其在功率器件领域,客户验证周期长,但一旦放量,压价也可能很快。我没见到该产品在客户 BOM 中的具体份额,所以不能把这件事说得过满。 第二个风险是,AI server 电源链条的价值捕获未必会长期留在器件厂。 如果 system integrator、PSU 厂商或 cloud provider 拥有更强议价权,那么上游模块厂商可能只是阶段性受益。换句话说,供给紧张不自动等于长期高毛利。历史上很多半导体环节都经历过这个故事:先被追捧,后被集成、被标准化、被压价。 第三个风险是技术路线并不锁定。 SiC 现在看起来适合高功率、高效率场景,但 GaN、SST 甚至系统级电源架构调整,都可能改变价值分布。如果未来 AI 数据中心在 rack 级、board 级供电方案上出现更激进的 redesign,当前模块供应商的优势未必能平移。我没在这些 next-gen power architecture 项目里做过一线设计,这里判断可能偏保守。 第四个风险来自政策。 新闻提到“海外主流 AI 服务器厂商”,但没有披露具体地区和客户。今天任何进入 AI infra 链条的中国供应商,都绕不开出口管制、客户合规审查和地缘政治扰动。技术通过认证,不等于商业上一定能顺畅放量。 所以,我的核心判断不是“宏微科技会成为 AI 时代的大赢家”。 我的判断更窄,也更重要:AI 行业正在进入一个新阶段,瓶颈已经不再只写在 GPU 型号表上,而开始写进 power stack、认证体系和交付链条里。 这才是这条新闻真正值得 AI builder 留意的地方。