Malus.sh 做了一件事:上传你的依赖清单,AI 就能重写开源项目,输出“法律上不同”的代码,绕过所有许可证义务。这不是概念验证,是已经能跑的工具——开源协议赖以生存的“复制代码”这个事实,正在被 AI 瓦解。
这是什么
Malus.sh 自称提供“AI clean-room(开源洗白即服务)”。操作很简单:上传 package.json、requirements.txt、Cargo.toml 之类的依赖清单,AI 根据原项目的文档、API、测试、行为表现重新实现,输出功能等价但代码完全不同的版本。结果:无署名、无 copyleft(一种要求衍生作品继续开源的许可证类型)、无许可证继承义务。
作者自己说这是 satire(讽刺)项目,但同时是 functional(可用)的。讽刺的点在于:开源协议约束的是你“使用、复制、修改、分发代码”的行为,但如果 AI 重写后换了语言、换了写法,许可证还能约束什么?版权保护表达,不保护思想和方法——AI 重写恰好踩在这个缝隙上。
类似的案例已经在发生:Claude Code 源码泄漏后隔天出现 Rust 版;OpenClaw 开源不久就有十多种语言变种。以前“开源规避”需要长时间重写去痕迹,现在 AI 把这个成本压到接近零。
行业怎么看
FOSDEM 2026 上的相关演讲提出了一个尖锐问题:如果 AI 能在短时间内重建 90% 的开源供应链,这对开源生态意味着什么?我们注意到,问题的核心不是技术能力,而是激励机制——AGPL(一种强 copyleft 许可证)原本是防止 SaaS 公司拿开源项目做云服务却不回馈源码,但如果公司可以“AI clean-room 重写”,那协议约束就名存实亡。开源从“公共基础设施”变成“免费产品原型库”。
但也有反对声音。法律从业者指出,clean-room defense(洁净室抗辩)在司法实践中要求严格的流程隔离——你要证明 AI 训练数据中没有包含原代码,而目前大模型的训练数据透明度根本做不到这一点。换句话说,“AI 重写”在法律上是否真的构成独立创作,远未定论。恶意规避许可证的行为在法庭上可能被认定为“实质性相似”,反而加重侵权风险。
对普通人的影响
对企业 IT:依赖开源组件的合规审查逻辑需要更新,单纯检查许可证声明可能不够,还要评估供应链中是否存在 AI 重写规避行为——这会变成新的审计成本。
对个人职场:开发者的核心竞争力从“能写代码”进一步转向“能定义问题和设计系统”——代码本身越来越容易被复制和重写,但问题定义和架构决策不行。
对消费市场:短期用户感知不大,但长期看,如果开源生态的回馈机制被破坏,优质开源项目的维护动力可能下降,最终影响软件质量。