找到 16 篇关于此标签的文章
Google 让 Chrome 直接跑 AI 模型 — 浏览器正在变成新的操作系统
Google 开放 Prompt API 测试,网页可直接调用浏览器内置的 Gemini Nano 模型,无需服务器、无需 API Key。这是 Google 对'AI 应用该怎么构建'的回答——把推理从云端搬到设备,把 AI 变成浏览器的基础能力。
Google 用多 AI Agent 把代码迁移提速 6 倍 — AI 编程从写函数升级到做工程
Google 用多个 AI Agent 协作,将 TensorFlow 到 JAX 的框架迁移提速 6 倍。这不是 AI 写代码又快了一点,而是 AI 第一次证明自己能完成需要数月人工的系统性工程任务。
Chrome 静默装下 4GB AI 模型 — Google 用浏览器分发权抢跑本地智能
Google Chrome 被发现在用户设备上静默安装约 4GB 的本地 AI 模型,未经明确同意。浏览器正从入口变成 AI 运行环境,分发权比模型本身更值得警惕。
Google 让 Gemma 4 生成速度翻倍 — 小模型带大模型跑的"投机解码"成主流
Google 发布 Gemma 4 系列 MTP 模型,通过"投机解码"技术实现最高 2 倍加速且输出质量不变。这意味着本地部署大模型的实用性显著提升,算力门槛进一步降低。
谷歌 Gemma 4 修好对话模板 — 本地跑大模型的体验又往前挪了一步
谷歌开源模型 Gemma 4 的对话模板 bug 本周被修复,社区量化版同步更新。这不是大新闻,但说明本地部署 AI 的可用性正在被细节打磨一点点推高。
Google 提出的 Transformer 统治 AI 七年 — 大模型底层架构正等待下一次洗牌
Transformer 是当今所有主流大模型的底层架构,它用自注意力机制解决了老算法无法并行和读长文的问题。理解它,才能看懂大模型的能力边界与未来瓶颈。
Gemma 4 逐层嵌入引讨论 — 把知识和推理拆开存储,小模型的机会还是幻觉
Gemma 4 的逐层嵌入设计引发社区讨论:模型的知识存储和推理能力能否分开扩展?如果可以,2B 小模型或许能装下 20B 的知识量。这直接关系到企业用小模型本地部署的可行性边界。
Transformer 论文七年引用超 12 万 — 看懂它才能理解大模型竞赛
2017年Google那篇8页纸定义了今天所有大模型的技术底座。它用注意力机制取代串行计算的RNN,让AI能并行处理语言、捕捉全局关系。理解这个架构,才能判断大模型公司的技术路线谁在走捷径谁在硬扛。
Gemma 4 模型文件现身 HuggingFace — 开源社区跑在了官方工具链前面
有人将 gemma-4-31B-it-DFlash 上传至 HuggingFace,但 llama.cpp 尚不支持运行。开源模型迭代速度正把部署工具链甩在身后,拿到模型却用不起来,成了新尴尬。
Seq2Seq 架构十年演进 — 理解它才算真正看懂大模型的技术起点
2014 年 Google 提出的 Seq2Seq 架构,是 GPT、BERT 等大模型共同的技术底座。理解它的编码器-解码器分工与信息瓶颈,才能判断 AI 能力边界。
Google Engineers Want One Ruleset for Production - Ready AI Code — Harder Than It Sounds
Google engineers are tac kling why AI- generated code rarely ships to production, and the fix is more complex than expected .
Google 悄悄给 AI 写代码开了一扇专属门 — Android CLI 让机器开发者第一次有了自己的工具
Google 内部测试显示,使用 Android CLI 的 AI 开发流程,Token 消耗减少超过 70%、任务完成速度提升 3 倍。这不是一个给人用的新工具,而是 Google 第一次明确承认:AI 已经成为软件开发的「第一手实施者」,并开始为它专门造基础设施。
Reddit 社区呼吁谷歌开源 Imagen(2022)、Gemini 1.0 Nano 与 Gemini 1.0 Pro
r /LocalLLaMA 社区发帖敦促谷歌开源多款已 废弃的旧世代模型,包括 Imagen、Gemini 1.0 及 PaLM 2,谷歌方面尚无任何回应。
放弃 Claude 订阅?我用 8 年前的服务器,强跑 Google 最强开源模型 Gemma 4 真实测评!
一位开发者在 2016 年老款 Xeon 服务器上本地运行 Google Gemma 4 26B,实测揭示内存带宽才 是 CPU 推理的核心瓶颈。
Gemma 4 发布时 Google 禁用了隐藏的 MTP 头部
开发者在 Gemma 4 的 LiteRT 文件中发现了多 token 预测权重;Google 确认 MTP 存在但被故意禁用,旨在确保兼容性与广泛可用性。
Gemma 4 llama.cpp Issues Resolved With Recent Fixes
Google Gemma 4 models now run correctly in llama.cpp after critical fixes for output quality and crashes