IBM 这周开源 Granite 4.1 系列,3B 到 30B 三个尺寸,Apache 2.0 许可 — 但一个鹈鹕实验说明小模型的问题不在压缩精度,在基础能力。
这是什么
IBM 发布了 Granite 4.1 系列大语言模型,提供 3B、8B、30B 三个参数规模,全部采用 Apache 2.0 开源许可。Apache 2.0 意味着任何企业可以自由使用、修改和商用,没有附加限制。
社区开发者 Unsloth 随即制作了 3B 模型的 21 个 GGUF 量化版本(GGUF 是一种让大模型在普通电脑上运行的压缩格式),文件大小从 1.2GB 到 6.34GB 不等。
开发者 Simon Willison 做了一件事:让这 21 个版本都生成「一只骑自行车的鹈鹕」的 SVG 矢量图。他的预期是,保留信息越多的版本画得越好。结果是:从 1.2GB 到 6.34GB,画质全部很糟糕,且没有可辨认的质量差异规律。
行业怎么看
这个实验的价值不在于鹈鹕,在于它揭示了一个判断:当模型基础能力不够时,量化精度(即压缩后保留多少原始信息)对输出质量的影响几乎为零。换句话说,给一个不会画画的人更粗的铅笔,画出来的还是一样差。
Apache 2.0 开源对中小企业是实打实的利好。多数开源大模型采用限制性许可,商用需付费或遵守额外条款,Granite 4.1 没有这些门槛。
但值得注意的反对声音:这个实验只测试了 SVG 生成这一个任务,而 3B 模型本身就不是为复杂创意生成设计的。在文本分类、摘要等更匹配小模型能力的任务上,量化精度的影响可能完全不同。用鹈鹕测试来否定量化策略,有过度推论的风险。
对普通人的影响
对企业 IT:Apache 2.0 许可意味着可以放心嵌入内部产品,3B 尺寸适合服务器甚至边缘设备部署,无需 GPU 集群。
对个人职场:小模型本地运行做简单文本任务越来越可行,但创意类、生成类输出仍需大模型支撑,别对 3B 抱错期待。
对消费市场:开源小模型赛道已经拥挤(Llama、Qwen、Mistral),IBM 入局增加了选择但差异化尚未显现,用户更应关注具体任务表现而非参数数字。