这是什么

Reddit 社区 r/LocalLLaMA 本周有一篇 帖子引发广泛讨论,133 个点赞、52 条评论——在这个 挑剔的本地模型爱好者社区里,算得 上热帖。作者用的是阿里巴巴开源的 Qwen3.6-35B-A 3B(一个 350 亿参数、但 实际激活参数只有 30 亿的混合专家 模型,MoE 架构意味着跑起来比参数量看 起来省资源),在个人电脑上用编程辅助工具 Open code 驱动它完成了一个复杂任务:审查他 自己写了近一年的个人记 账应用,找出技术债务和安全风险,然后直接动 手修复。

整个流程大约 50 分钟:先花 20 分钟生成问题报告,再花 30 分钟逐项修复。在此之前,同 样任务交给上一代 Qwen3.5-27B,以 及 Gemma4-31B、甚至更大的 Qwen3.5-122B,全 部卡死。新模型以每秒约 50 个 词的速度生成内容,速度谈不上快,但在 16 GB 显存的消费级显卡上能跑起来这个规模的任务,本身 已是变化。

行业怎么看

乐观一侧的解读是:MoE 架构( 混合专家模型,每次推理只激活一部 分参数,大幅降低算力需求)正在让「大 模型本地化」从极客爱好变成工程选 项。Qwen 系列开源模型在这条路上走 得比多数人预料的快——从 Qwen3.5 到 Qwen3.6, 仅几个月时间,在真实编程任务上的代差 已经相当明显。

但也有值得注意的保留 意见。这篇帖子的核心证据只是一 个用户、一个项目、一台电脑,属于「个案报告」而非系 统性评测。作者自己也提到,新 模型在某些细节上仍有问题——比如它不遵守 编程工具的「计划模式」,会直接开始写文件,需要人 工绕过。更根本的问题是:当模型以「子 Agent」方式(让 AI 拆解任务、 并行处理)运行时,用户其实很难验证它做 了什么、没做什么。代码质量的真实判 断,仍然需要有经验的人来审。用 AI 生成的报告来评估 AI 的工作,是个没 有解决的闭环风险。

对普通人的影响

对企业 IT:本地化部署的模型( 不经过云端服务器)意味着数 据不出内网,这对有合规要求的企业是真 实利好。但从「能用」到「 敢用于生产系统」,还需要一套验 证流程,不是模型好了就自动解 决的。

对个人职场:会写一点代码、或 者愿意学的人,现在用消费级硬件 驱动一个相当有能力的编程助手,是现 实可行的选项了。这不会让不 懂编程的人突然变成程序员,但会让有一定基础的人承接 过去需要外包的小项目。

对消费市场:阿 里把这个规模的模型开源出来,直接压 低了同类云服务的定价空 间。对最终用户来说,AI 编程辅 助类工具的价格大概率会继续下行,但「 跑在自己电脑上」的选项仍然需要一定的 硬件门槛和折腾成本。