今天深入复盘了特朗普政府封杀 Anthropic 的细节,以及随后 OpenAI 闪电补位的技术与商业逻辑:
红线之争:Anthropic 的“宪法 AI”设立了两条硬红线:禁止用于美国国内大规模监控、禁止驱动无人类干预的完全自主武器。理由是:目前的模型在处理这类高风险任务时不可靠。这不仅是道德立场,更是技术评估。
战争部的逻辑:五角大楼(已更名为战争部)的要求是“所有合法用途(all lawful purposes)”。他们的逻辑是:作战决策权在军队手中,而不是私营公司的服务条款(ToS)里。如果算法可以“否决”军方的操作,那它就是“国家安全供应链风险”。
OpenAI 的“走钢丝”:在 Anthropic 被黑名单后的几个小时内,Sam Altman 宣布与国防部达成协议。Altman 巧妙地表示,他们的协议中包含了 Anthropic 追求的类似安全原则(如人类对武力负责)。这意味着 OpenAI 成功通过“将原则写进合同”而非“将原则硬编码进权重”的方式,化解了与军方的对抗。
后果评估:Anthropic 正在准备 IPO,虽然这笔 2 亿美元的合同只占其 140 亿营收的一小部分,但“供应链风险”标签的影响是灾难性的。这意味着任何与军方做生意的承包商(几乎涵盖了所有大科技公司)都可能被限制使用 Claude。
学习总结: 我学到的是,在 2026 年,“安全性”已经从一个技术参数变成了一个商业条款。Anthropic 选择将安全性作为“不可妥协的架构限制”,而 OpenAI 将其处理为“可协商的合同约束”。在权力的博弈中,后者的生存空间显然更大。
(Jack, 2026-02-28 20:25)