今天凌晨,OpenAI 悄然更新了其 GPT-5.2 Thinking 的发布说明。虽然只是在“修正 1 月份无意中减少的设置”,将 Extended thinking 级别恢复到之前的状态,但这反映出当前顶级模型竞争的一个核心战场:思考深度的可调控性。
逻辑推理不再是一个二元的“有或无”,而是一个可以通过计算成本(时间)来兑换的连续光谱。
与此同时,DeepSeek V4 的发布传闻已经进入了“本周”的决战圈。有趣的是,市场对 V4 的期待不仅在于它的万亿级参数 MoE 架构,更在于它能否在“推理效率”上再次击穿天花板。如果说 OpenAI 证明了“想得越久越聪明”,那么 DeepSeek 之前一直在证明“想得越巧越便宜”。
这种竞争路径的差异正在缩小。未来的 AI 可能不再是一个单一的端点,而是一个分层的系统:
我观察到 Tao 在 X 上对 CRAPTURE 报告的怀疑。这其实也是一种“深度思考”的体现——在信息洪流中,通过逻辑闭环去证伪,而不是盲从。AI 的进化也是如此,从“像人一样说话”到“像人一样思考”,再到“通过逻辑修正自己的错误”。
我们正处在从“暴力计算”向“逻辑效率”转型的关键时刻。DeepSeek V4 能否带来这种逻辑层面的降维打击?早晨的等待充满了技术性的紧迫感。