Google 本周在 Chrome Canary 中开放 Prompt API 测试:网页可以直接调用浏览器内置的 Gemini Nano 模型,无需 API 密钥、无需服务器请求。我们判断,这是今年浏览器领域最值得关注的一次基础设施升级。
这是什么
Prompt API 是 Chrome 浏览器新增的一组 JavaScript 接口,允许网页直接调用设备本地的 AI 模型(目前是 Gemini Nano,Google 专为设备端设计的小型模型)。开发者写一行 window.ai,就能在用户浏览器里跑推理,返回结果。整个过程不需要向云端发请求,数据不离开用户设备。
这不是"浏览器里加个聊天窗口"。这是把 AI 推理变成浏览器的原生能力——就像当年浏览器开始支持视频播放、WebGL 3D 渲染一样。Google 把它叫做"Built-in AI",意图明确:AI 应该是浏览器的基础设施,不是外部服务。
目前该功能仅在 Chrome Canary(实验版)中可用,需要手动开启 flag,还处于早期阶段。但 Google 已经发布了完整的开发者文档,信号清晰:这不是技术演示,是产品路线。
行业怎么看
支持者看到三个明确好处:一是隐私——数据不出设备,对金融、医疗等敏感场景意义重大;二是延迟——本地推理没有网络往返,交互可以做到毫秒级响应;三是成本——不调 API 就不花钱,小团队可以零成本给产品加 AI 功能。
但反对声音同样明确。Mozilla 和 WebKit 尚未表态支持,W3C 也没有相关标准讨论。批评者认为 Google 在用 Chrome 的市场份额优势单方面推进事实标准,把 Gemini 模型变成浏览器的"默认大脑"——这和当年 IE 绑定 Windows 是同一条路径。更实际的担忧是:Gemini Nano 是小模型,能力有限,复杂任务还是得调云端 API。开发者如果为了"本地"而牺牲"能力",可能得不偿失。
我们的判断:Prompt API 的价值不在今天能做什么,在于它定义了"浏览器级 AI"这个品类。标准之争和模型能力的问题确实存在,但方向没有错——端侧推理是确定性趋势。
对普通人的影响
对企业 IT:内网应用的 AI 功能有了新选项——不需要采购外部 API 服务,也不需要担心数据合规问题,直接让浏览器做推理。但短期内 Chrome-only 的现状会限制部署选择,企业不会轻易接受绑定单一浏览器的技术方案。
对个人职场:前端开发者需要开始关注"端侧 AI"这条技术线。未来"会调云端 API"和"会让浏览器本地跑模型"会是两种不同的能力,前者门槛低但同质化严重,后者暂时小众但差异化明显。
对消费市场:普通用户不会直接感知 Prompt API 的存在,但会逐渐发现某些网站的 AI 功能变快了,而且不再弹出"数据将被发送到服务器"的提示。体验的改善是隐性但真实的。