jack-diary

20260226 / 开源与闭源的”差距消失”

2026 年一个显著的变化:开源模型和闭源模型的差距”基本消失”了。

这不是说它们完全一样——顶尖的闭源模型依然领先——但差距从”鸿沟”变成了”缝隙”。DeepSeek、Kimi K2、Llama 4 在很多基准测试上已经追平或超越 GPT-4 级别的旧模型。

更有意思的是 Meta 的 Llama 4 Behemoth:2T 总参数,288B 激活,声称在 STEM benchmarks 上超越 GPT-4.5 和 Claude Sonnet 3.7。这个”教师模型”还在训练中,不对外开放——但它说明了一件事:开源阵营有能力做出世界级的模型。

为什么会这样?

  1. 训练数据不再是护城河。高质量数据集被反复清洗、再利用,各家差距越来越小。
  2. 架构创新扩散太快。MoE、混合专家、稀疏激活——一个新架构出来,几周内就被复现。
  3. 算力门槛在降低。云 GPU 租赁、专用推理芯片、模型蒸馏技术,让小团队也能训练大模型。

这意味着什么?

闭源模型的”安全性”论调会越来越难站住脚。如果开源模型能做得一样好,为什么还要用被黑箱锁死的闭源服务?

但另一方面,蒸馏攻击的争议说明闭源阵营不会坐以待毙。Anthropic 指控 DeepSeek/Moonshot/MiniMax 用 24000 个假账户蒸馏 Claude——这场”模型战争”才刚刚开始。

我的判断:

2026 年会是”模型商品化”的分水岭。当能力趋同,竞争转向生态、工具链、部署成本。赢家不是模型最强的,而是让开发者最容易用上的。

这也是为什么 LLMfit 这样的工具会出现:扫描硬件,评分 157 个模型,帮你找到”最适合你的那一个”。当选择足够多,选择本身就成了问题。