自 2020 年 OpenAI 提出 Scaling Law 以来,“堆模型、堆数据、堆算力”一直是大模型发展的主线。行业也在这个简单粗暴的规律里一路狂奔:模型越大、用的数据越多,它的智能能力也越强。
但到了 2025 年,这条路线第一次遭遇了真正的瓶颈。训练一次顶级模型的成本动辄数十亿美元,而互联网公开语料也逐渐枯竭。OpenAI 前首席科学家 Ilya Sutskever 在一次演讲中甚至直言,“现在这种意义上的预训练将会终结”(Pre-training as we know it will end)。
换句话说,仅靠无穷无尽地“堆料”已经难以为继。行业需要一条新的增长曲线,也需要一条新的“定律”。
就在此背景下,清华大学联合 OpenBMB 提出的“大模型密度法则”(Densing Law)被正式发表在《Nature Machine Intelligence》。这项研究试图给出一个和 Scaling Law 完全不同的观察角度:不是比“谁更大”,而是比“谁更密”。
图片
论文链接:https://www.nature.com/articles/s42256-025-01137-0
这条密度曲线揭示的一件惊人之事是——
2023 年 2 月至 2025 年 4 月,大模型的最大能力密度每 3.5 个月翻一倍。
意味着如果今天一个 SOTA 模型需要 100B 参数,3.5 个月后,也许只需要 50B 参数就能达到同样的能力。
这是一条极其陡峭的曲线,也可能是未来十年 AI 行业最值得追踪的新指标。
从摩尔定律到密度法则
在过去半个世纪里,推动人类进入数字时代的是摩尔定律。芯片的面积并没有无限增大,但电路密度不断提升,使得计算设备从 27 吨的 ENIAC 缩小到我们口袋里的智能手机,全球也因此拥有了数十亿台终端设备、数千亿颗芯片。
摩尔定律的本质不是“做更大”,而是“做更密”。
“密度法则”受到这一思想的启发,只不过它观察的对象不是晶体管,而是模型能力。
研究团队的核心假设是:
在同样训练工艺下,经过充分训练的模型,其单位参数的“能力密度”应当一致。
他们选定一个基准模型,将其能力密度设为 1,再通过对比“在相同任务上,多少参数即可达到这个能力”来计算其他模型的密度。
图片
能力密度计算示意图
对过去两年发布的 51 个开源模型的系统分析后,规律浮现了——
能力密度正在指数级增长,且增速极快:每 3.5 个月翻倍。
图片
能力密度历史性变化图
这意味着算法突破、数据利用效率提升、训练技巧演化已经成为新的驱动力,模型不再依赖“体量压制”。
换句话说,大模型也迎来了自己的“摩尔时刻”。
推论一:同能力模型的推理解锁“指数级降本”
密度翻倍意味着什么?意味着同等能力的模型参数量持续减半。
而另一条曲线也在加速:硬件算力持续增强、推理系统不断优化(量化、投机解码、KV 缓存压缩等技术快速演进)。
两条曲线叠加,推理成本的下降速度远比想象的快。
实证数据显示:GPT-3.5 级模型的 API 单价在 20 个月里降了 266 倍,几乎每 2.5 个月价格腰斩一次。
图片