aws.amazon.com
26 篇文章 · 2026年4月6日 – 2026年5月7日
Furbo 宠物摄像头换掉 GPU 改用 AWS 自研芯片 — AI 推理降本跑出真实商业案例
台湾宠物科技公司 Tomofun 将 Furbo 摄像头的 AI 推理从 GPU 迁移到 AWS 自研芯片 Inferentia2,成本显著下降且精度不损。这标志着「推理专用芯片替代 GPU」不再只是厂商叙事,有了面向消费者的真实验证。
MLflow 3.10 上线 SageMaker — AWS 给生成式 AI 装仪表盘,企业总算能算清账
MLflow 3.10 登陆 AWS SageMaker,新增生成式 AI 评估 API 和预置性能仪表盘。这不只是工具升级,而是 AI 行业从"能不能跑"转向"跑得贵不贵、好不好"的信号。
AWS 让 Agent 突破浏览器边界 — 能看不能动的系统弹窗终于能动
AWS 为 Bedrock AgentCore 浏览器新增操作系统级操控能力,让 AI Agent 能直接与系统弹窗交互。此前 Agent 只能在网页层工作,遇到安全提示等系统界面就卡住。这是 Agent 从 demo 走向生产必须补的短板。
赫伯罗特让AI替经理读差评 — 传统行业AI落地从干脏活开始
全球前列航运公司赫伯罗特,用Amazon Bedrock自动化了每两周手动读客户评价的流程。值得关心的是:这不是什么前沿突破,而是传统行业AI落地的真实路径—从最重复的脏活开始。
AWS发布Agent自动调优—AI上线即衰退,靠人盲猜修Bug的时代结束了
AWS推出AgentCore Optimization,能根据生产数据自动给出AI Agent优化建议并做A/B测试。大厂的关注点正从“怎么造Agent”转向“怎么养Agent”,解决上线后性能悄悄退化、维护全靠猜的痛点。
AWS 用自然语言直出数据看板 — BI 工具正把分析师的建表门槛降到零
Amazon Quick 现支持用自然语言直接生成多页数据看板。我们注意到,当建表从“拖拽”变成“说话”,BI 工具的核心壁垒正从交互体验转向底层数据治理。
AWS 让 BI 报表学会对话 — 真正卡数据决策的不是技术,是流程
AWS 公布内部数据对话系统 TARA,基于 Amazon QuickSight 的 Dataset Q&A 功能,用自然语言直接查询现有数据集。核心判断:企业数据决策的瓶颈不在查询技术,而在业务人与 BI 团队之间的交接流程。
AWS 用 Agent 自动迁移 BI 仪表盘 — 云厂商开始抢咨询公司的活
AWS Transform 用 AI Agent 自动将 Tableau/Power BI 仪表盘迁移到 QuickSight,号称从数月缩至数天。云厂商开始用 Agent 吃掉咨询公司的迁移实施业务,但业务逻辑验证仍是盲区。
亚马逊让大模型给自己当裁判 — 靠写规则训 AI 的时代正在过去
AWS 提出 RLAIF(用 AI 反馈强化学习)微调方案,让大模型取代人工和死板代码来给 AI 打分。这意味着企业定制专属 AI 的门槛大幅降低,但“AI 偏差”的风险也在暗中累积。
AWS 发布大模型迁移框架,承诺两周内完成换脑,企业不再被单一厂商绑定
AWS 发布大模型迁移框架,承诺 2 天到 2 周内完成模型切换与提示词优化。这说明企业 AI 应用正从选型定终身转向按需换脑,模型锁定风险降低,但自动化评估仍需警惕业务细节丢失。
Introducing granular cost attribution for Amazon Bedrock
AWS 为 Amazon Bedrock 推出细粒度成本归因, 自动将推理费用映射至 IAM 用户、角色及 联合身份,无需任何代码改动。
AWS Nova Multimodal Embeddings Powers Native Video Semantic Search
Amazon Bedrock 推出 Nova Multimodal Embeddings,将文本、音频、 视频与图像统一映射至同一向 量空间,重构视频语义搜索架构。
Optimize video semantic search intent with Amazon Nova Model Distillation on Amazon Bedrock
Amazon Bedrock 的 Model Distillation 功能将路由智能从 Nova Premier 迁移至 Nova Micro,推理成本降低超 95%,查 询延迟减少 50%。
AWS Nova Forge SDK Tutorial: Fine-Tune Nova Models With Data Mixing
AWS 发布 Nova Forge SDK 第 二期教程,详解数据混合微调流程;测试显 示 F1 分数提升 12 个百分点,同 时保留 MMLU 基线能力。
Cost-efficient custom text-to-SQL using Amazon Nova Micro and Amazon Bedrock on-demand inference
AWS 详解如何通过 LoRA 微调 Nova Micro 支 持自定义 SQL 方言,借助 Serverless 推理在 22,000 次查询下月 费仅 $0.80。
AWS Trainium2 上的 Speculative Decoding 将 LLM 推理延迟降低最高 3 倍
AWS 基准测试显示,在 Trainium2 上结 合 vLLM 使用 speculative decoding,可将解码密集型工作负载的 inter-token 延迟降低最高 3 倍。
Guidesly 如何在 AWS 上为户外向导构建 Jack AI 自动化行程报告系统
Guidesly 的 Jack AI 借助 AWS Lambda、Step Functions 和 Amazon Bedrock,在每次户外向导预订完 成后自动生成并发布行程营销内容。
Best practices to run inference on Amazon SageMaker HyperPod
AWS 发布 HyperPod 推理部署最佳实践指南,称可将 GPU 工作负载的总拥有成本降低最高 40%。
AWS 为 SageMaker JumpStart 新增面向用例的部署预设配置
SageMaker JumpStart 推出任务感知型部署配置,可 按用例针对成本、吞吐量或延迟分别进行优化, 大幅降低 MLOps 门槛。
AWS Lambda 驱动 Amazon Nova 强化微调奖励函数的技术实 践
AWS 详解如何借 助 Lambda 无服务器函数为 Amazon Nova 强化微调构建可扩展奖励函数,大 幅降低标注数据需求。
AWS智能体注册表:企业AI治理的基础设施争夺战
当企业部署数百个AI智能体却无法统一管控时,AWS推出Agent Registry——这迫使老板回答:谁在掌控你公司的AI资产?
AWS模型生命周期管理:企业AI应用的断供风险与应对策略
AWS Bedrock的模型生命周期机制意味着企业AI应用可能面临强制迁移,老板必须现在决定:是锁定供应商还是构建迁移能力?
AI智能体进化:从"单次问答"到"持续对话"的商业分水岭
AWS让AI智能体能在执行中途"暂停追问",这意味着复杂业务流程自动化的成本门槛正式跌破中小企业承受线,你的客服、审批、采购流程还需要人坐在那里等吗?
使用 SageMaker RLVR 微调 Qwen 2.5 以支持工具调用
AWS SageMaker 无服务器 RLVR 微调使 Qwen 2.5 7B 的工具调用准确率提升 57%,无需管理 GPU。
AWS 推出 Amazon Quick:无代码 HR 入职代理详解
AWS 推出 Amazon Quick,这是一项托管代理服务,使 HR 团队无需编写代码即可构建入职机器人,自动处理政策问答与合规追踪。
Amazon Bedrock AgentCore Gateway 现已支持 MCP 服务器的 OAuth 2.0
AgentCore Gateway 利用 OAuth 2.0 授权码流程集中管理 MCP 服务器认证,消除了逐服务器凭证管理的繁琐。