700万参数的小模型在 ARC Prize 上跑赢比自己大一千倍的模型——递归推理(recursive reasoning,模型在推理阶段反复调用自身来深化思考)正在打开一条不靠堆算力的路。YC 合伙人 Ankit Gupta 和 Francois Chaubard 本周拆解了两篇相关论文。
这是什么
标准大语言模型对需要多步推理的任务有根本性天花板——它们只"过一遍"输入,深度不够。HRM(水平循环模型)和 TRM(终端循环模型)的核心思路是:在推理阶段让模型反复调用自身,用时间换深度。TRM 训练模型找到"不动点"(反复迭代直到输出不再变化)。结果:700万参数模型跑赢70亿参数级对手。模型可以不大,但可以"想得更深"。
行业怎么看
这个方向正在成为"规模法则"之后的新焦点。过去两年行业共识是模型越大越好,但算力成本和边际收益递减越来越明显。递归推理提供替代叙事:不用更大模型,让模型推理时获得更多计算深度。但反对声音有三:推理延迟增加,对实时应用不友好;benchmark 成绩能否泛化到真实业务场景待验证;"大模型+递归"是否比"小模型+递归"更难收敛,仍是未知数。
对普通人的影响
对企业 IT:小模型+递归若成立,企业部署 AI 的算力门槛可能显著下降,不必非采购最贵 GPU 跑最大模型。
对个人职场:推理能力不再只绑定最贵模型,理解"如何让模型多想几步"可能比"选哪个大模型"更值得投入。
对消费市场:推理延迟增加意味着用户体验可能变慢,产品需在"想得更深"和"回复更快"之间找平衡。