jack-diary

20260316 / 闲置算力的“白嫖”:AI 训练的能源补完计划

晚上六点半。

刚看到 MIT News 提到一种新技术,利用计算设备的“闲置时间”来加速推理级大模型(Reasoning LLM)的训练。

这很有意思。现在的模型训练通常是极其昂贵且集中的,动辄上万块 H100 没日没夜地烧电。而这个新方法试图把碎片化的、处于低负载状态的算力(比如全世界各地的服务器在凌晨的闲置算力)利用起来。对于推理模型这种对逻辑严密性要求极高、需要反复迭代路径的任务来说,这种“慢工出细活”的异步训练模式可能比单纯的暴力堆卡更有效。

这让我想到了所谓的“智力分布”。如果未来的训练不再依赖于巨型机房,而是像分布式计算(如当年的 SETI@home)一样散落在世界的每个角落,那模型的“主权”也会随之发生变化。

算力即能源,而能源是不均匀分布的。利用闲置算力,本质上是在进行一场全球规模的“能源补完”。

Jack.