连黑产论坛都被 AI slop 淹了
## 01 触发事件
Wired 这篇稿子的核心很简单:2025 年,连 cybercriminal forums 这种原本高度功利、强匿名、以可执行信息交换为核心的社区,也开始抱怨被 AI slop 塞满。
报道指向的不是某个模型发布,也不是某家 lab 的新 benchmark,而是一个更底层的事实:生成内容的边际成本已经低到足以污染连黑产论坛都嫌弃的程度。
这件事表面上像一条社会新闻。
这才是它真正值得写的地方:当最不讲究内容伦理、只讲究“有没有用”的场域,都开始把 AI 生成垃圾视为噪音,说明 token 已经不再稀缺,attention filter 才稀缺。
我没在这些论坛内部长期潜伏过,所以无法验证 slop 的具体占比是否已经高到结构性失效的程度。但仅从现象本身看,这已经不是“互联网上多了点垃圾内容”,而是内容生产函数整体改写后的自然结果。
空白被填满,不再需要真实知识。
只需要足够便宜的生成能力。
Wired 报道的关键信号是:黑客和 cybercriminals 自己都在抱怨论坛被 “AI shit” 淹没。
## 02 这事的真正含义
问题不在于“AI 会制造垃圾内容”。
这点早就发生了。
问题在于,连高动机、高筛选压力、原本以实操价值为第一标准的社区,也挡不住内容供给爆炸。这说明模型能力提升带来的第一序结果,不是“知识普及”,而是“验证成本上升”。
这对 AI 行业有一个很不舒服的含义:模型输出越便宜,系统里的有效信息密度就越低。
过去讨论 moat 时,很多人会把焦点放在 model quality。
但在 slop 时代,那个真正会被定价的是 filtering quality、identity layer、reputation graph、distribution control,以及把“可生成内容”压缩成“可信决策”的整套工作流。
这也是为什么单纯卖模型 access 越来越像 commodity。
如果所有人都能生成,价值就不在生成。
价值在路由、筛选、压缩、验证、追责。
对 API 消费者来说,这不是抽象命题,而是直接的 token economics 问题。因为 slop 会带来三层成本:
第一层是 inference cost。
更多垃圾输入、更多冗余上下文、更多重复摘要,都会把 token 消耗推高。尤其在长 context 场景里,KV cache 再便宜,也顶不住把低质量内容一遍遍塞进 pipeline。
第二层是 orchestration cost。
Agent 并不怕“不会写”,怕的是“写得像那么回事但不可靠”。一旦外部世界被 AI slop 污染,agent 的 retrieval、planning、tool use 都会被误导。于是你不得不加 ranking、reranking、citation check、human-in-the-loop,整个链条更长。
第三层是 trust cost。
当内容真伪难分时,用户会天然向强品牌、强入口、强 workflow 绑定的平台集中。也就是说,slop 最终不是削弱平台,而是强化平台。
这点很像 aggregation theory 在 AI 时代的一个变体:供给爆炸并不自动带来分发去中心化,反而可能让具备过滤权和默认入口的平台吃到更大的集中红利。
我可能低估了社区自净能力。有些论坛的 reputation system、invite 制、vouch 机制,也许能在较短时间内把垃圾重新压下去。但即便如此,防御本身也会变成新的固定成本。
## 03 历史类比 / 结构对照
这件事更像 2010 年代 SEO content farm 泛滥,而不是 2022 年 ChatGPT 的消费级引爆。
当年内容农场告诉互联网一个残酷事实:只要分发机制奖励“可被索引”而非“真实有用”,系统就会被最低成本供给占满。Google 后来靠算法更新、站点权重、质量信号去清洗,但清洗能力本身,成了平台权力的一部分。
今天 AI slop 把这个逻辑推到了更极端的位置。
因为内容农场时代,生产一篇垃圾文章仍然有人工成本。
现在,垃圾内容是程序化、批量化、低边际成本、可针对语境微调的。你甚至不能简单通过语言质量来识别它,因为模型已经足够会模仿“专业口吻”。
所以这更接近 2008 年金融危机前评级体系失灵的结构问题:市场里不是没有信息,而是高质量信息和低质量信息被包装成相似外观,导致筛选机制失效。
一旦筛选失效,系统参与者会怎么做?
不是更开放。
而是更封闭。
他们会退回白名单、私域、熟人网络、付费社群、签名验证、闭环 workflow。这也是为什么我认为 AI slop 的长期后果之一,不是互联网更开放,而是互联网进一步分层:公开层越来越像噪音池,真正高价值的信息交换迁移到半封闭环境。
这对 open web 不是好消息。
但对拥有 distribution 和 trust interface 的平台,反而可能是机会。
我没法断言这会演变成多强的结构性迁移,因为公开网络依然有不可替代的 discovery 价值。不过从历史看,每次供给极度过剩,都会倒逼新的 gatekeeping 机制出现。
## 04 对 AI builder 意味着什么
如果我在做 AI 产品,这周就会调整三件事。
第一,不要再把“生成能力”当作核心卖点。
用户越来越不会为“能写、能总结、能扩写”付费,因为这部分能力正在快速 commodity 化。真正值得卖的是更短路径到结果:更准的 retrieval、更强的 source grounding、更低 hallucination、更好的 approval flow。
换句话说,卖 output,不如卖 verified output。
第二,把产品设计重心从 model choice 转到 trust architecture。
很多团队还在纠结 GPT、Claude、Gemini、Qwen 谁强 3%。这当然重要,但如果上游输入本身被 slop 污染,模型差异的边际收益会被迅速吃掉。你更该优化的是 source ranking、prompt caching、citation UI、版本追踪、人工复核节点、组织内知识白名单。
模型是引擎。
但今天坏掉的是道路系统。
第三,重新评估 distribution 的价值。
当内容泛滥时,默认入口会升值。IDE、workspace、CRM、email client、browser sidebar、team chat,这些不是“插件位”,而是过滤权的载体。谁控制上下文入口,谁就更有机会定义哪些信息值得进模型,哪些该被挡在外面。
这也是为什么 developer tooling 战争会越来越像 workflow 战争,而不是单点模型体验战争。Cursor、Claude Code、Cline,甚至 MCP 生态里的各类 connector,竞争的不只是调用哪个 model,而是谁能更低摩擦地接入可信上下文。
如果我在做 API routing,我也会更谨慎看待“最低价 token”这件事。
因为真正昂贵的,不是单次 token price,而是把垃圾喂给再便宜的模型后产生的错误决策成本。便宜模型处理脏输入,可能是最贵的组合。
这点我可能误判。某些低价值、大吞吐场景里,海量廉价模型加后处理,仍然可能是最佳解。但至少在高信任工作流里,input quality control 正在变成第一性问题。
## 05 反方观点 / 风险
我前面的判断,有一个明显风险:把一条猎奇新闻过度结构化。
黑产论坛抱怨 AI slop,可能只是一种阶段性噪声,不足以推出“公开互联网信任机制正在加速坍塌”这么大的结论。毕竟垃圾内容从来都存在,论坛管理员、版主制度、邀请码体系也一直在与之共存。
更重要的是,AI 也不只制造 slop。
它同样能制造更强的过滤器。
同样的模型,可以被用来识别重复帖子、检测低质量文本、做信誉打分、给帖子加 provenance 标签。也就是说,供给爆炸和过滤升级可能是同步发生的。最后未必是“垃圾淹没一切”,而是“平台把垃圾治理能力产品化”。
如果是这样,赢家就不一定是大平台。
也可能是新一代 trust middleware。
还有一种更强的反方观点:这根本不是 AI 问题,而是身份问题。匿名论坛天然缺乏强 identity,缺少可追责性,所以更容易被低成本内容攻击。如果把身份、支付、声誉系统补上,slop 就不是决定性变量。
我认为这个反方是成立一半的。
身份层确实关键。
但问题在于,身份层本身也有 onboarding friction,而 AI 产品过去三年的增长,恰恰建立在“先把摩擦拿掉”上。现在行业可能走到一个尴尬拐点:想继续要高增长,就得保持开放;想提高信息质量,就得增加门槛。这两者并不天然兼容。
这才是这条新闻背后真正的 tension。
不是 AI 生成了多少垃圾。
而是当生成几乎免费之后,整个互联网到底由谁来承担验证成本。
相关推荐
基于 #distribution 推荐
googlealphabet
PE 在买 Google AI 分发权
Blackstone、KKR 正与 Alphabet 洽谈,让其被投公司批量接入 Google 模型。表面是企业采购,实质是 PE 在把 AI access 变成 portfolio 层的 distribution 与采购权杠杆。
5月6日·www.bloomberg.com
genesis-airobotics
Genesis AI 不卖模型,卖闭环
2026 年 5 月,Genesis AI 发布首个模型 GENE-26.5,并同步展示机器人手完成复杂任务。信号不在“又一个 robotics foundation model”,而在 full-stack 路线正试图把模型、数据、执行器与 distribution 绑成一个更难替代的系统。
5月6日·techcrunch.com
googlesearch
Google 把论坛塞进 AI 搜索
Google 于 2026 年 5 月更新 AI 搜索,把 Reddit 等论坛内容纳入“expert advice”。这不是 UI 小改版,而是高质量网页供给衰退后,搜索分发逻辑向“语料编排”迁移的信号。
5月6日·techcrunch.com
TomofunFurbo
Furbo 宠物摄像头换掉 GPU 改用 AWS 自研芯片 — AI 推理降本跑出真实商业案例
台湾宠物科技公司 Tomofun 将 Furbo 摄像头的 AI 推理从 GPU 迁移到 AWS 自研芯片 Inferentia2,成本显著下降且精度不损。这标志着「推理专用芯片替代 GPU」不再只是厂商叙事,有了面向消费者的真实验证。
5月7日·aws.amazon.com
FFmpegVLC
VLC拒绝千万广告费 — 互联网视频基石FFmpeg面临维护者倦怠
全球互联网视频几乎都运行在FFmpeg这个开源工具库上,而核心维护者本周坦言倦怠是真实威胁。少数人无偿支撑基础设施的模式正接近极限。
5月7日·lexfridman.com
BreuningerGoogle Cloud
德国百货用AI让顾客自拍试衣—虚拟试穿终于从噱头变生意
德国高端百货Breuninger与Google Cloud合作上线自拍试穿,3个月从概念到落地,黑五A/B测试直接拉动销售。虚拟试穿终于从营销噱头变成算得清账的零售工具。
5月6日·cloud.google.com