当神的铠甲太重,已经勒进肉里
"神"开始流血了
2025年11月6日,Sam Altman发了一篇1200字的声明。
语气很诚恳。姿态很低。但你能感觉到,他在出汗。
同一周,北京的月之暗面团队发布了 KimiK2。训练成本:460万美元。在 SWE-Bench Verified这个专业代码生成测试上,它跑出了71.3%的成绩一 -超过了 GPT-5。
OpenAI 的 CFO 前一天刚说"可能需要政府融资支持"。
第二天就改口。
这不是巧合。这是流血的声音。
//什么是"神"//
神不是某个人,是一套信念。
这套信念说:只有闭源、重资本、天价算力,才能训练出最强的模型。它的代言人是 OpenAl,是SamAltman,是那份横跨8年、总额1.4万亿美元的基础设施承诺清单。
1.4万亿是个什么概念?
相当于整个非洲大陆2023年的GDP。相当于可以建造140个三峡大坝。相当于给全球每个人发200美元。
这笔钱,OpenAI准备用来建数据中心、买芯片、铺光纤。他们说服了Broadcom、 Oracle、Microsoft、Nvidia。差点说服了政府。
但现在,DeepSeek用560万美元训练出了 R1。
Kimi K2用460万美元,跑通了1T参数的 MoE架构。
这两个数字,一个是1.4万亿,一个是460万。
差了多少倍?
30万倍。
//为什么流血//
想象一下这个画面:
OpenAI 每年烧掉数千亿美元,像一台巨型蒸汽机,轰隆作响,吞吐着电力和芯片。
而月之暗面的团队在北京的办公室里,用384个"专家"(这是MoE架构里的技术术语,可以理解为384个小型专业模型)、32B激活参数,在15.5万亿 token的训练过程中实现了零损失尖峰。
什么叫零损失尖峰?
简单说,就是训练过程全程稳定,不需要重启,不需要人工干预,不需要"救火"。
在 SWE-Bench这样的专业代码生成任务上,KimiK2逼近了GPT-5的水平。在推理场景中,它打败了Claude Opus 4的部分能力。
更要命的是,这些模型开源。
任何人都可以下载权重,部署在自己的服务器上。跑100万token只需要0.15美元输入、
2.5美元输出。OpenAI的API定价?十倍以上。
Sam Altman在声明里花了三段篇幅解释"我们不需要政府担保",又花了两段解释"我们的收入增长计划"。
他说,OpenAl今年年化收入约200亿美元,预计2030年要涨到数千亿。
这套叙事建立在一个假设上:闭源模型的性能壁垒能维持足够长的时间,让用户愿意为
京目的APU付费

评论列表