短期缺芯片,长期缺能源,永远缺存储
2025年底,孙宇晨在社交媒体上说了一句话:“短期缺芯片,长期缺能源,永远缺存储。”
这15个字,揭示了AI算力产业链最残酷的物理现实。AI不是抽象概念,它更像一种新型劳动力。硅基劳动力只要一件东西——稳定、持续、低成本的电力。电力变成算力需要芯片,算力变成智能需要存储。
在AI推理和Agent时代,Token消耗量呈指数级增长。Token消耗量本质上反映了企业对AI的利用深度和组织效率,这是芯片、能源、存储需求爆发的底层驱动力。这三个瓶颈,层层递进,每一个都是万亿级别的投资机会。
短期缺芯片:GPU、CPU和HBM都是“卡脖子”
AI算力产业链三重瓶颈时间线
AI时代,芯片的瓶颈不再局限于单一组件。高性能CPU与GPU/HBM同样面临供应压力,共同构成了AI算力基础设施的短期挑战。
GPU与HBM:AI算力的核心驱动
核心矛盾是GPU不够,以及GPU需要HBM,HBM的先进封装产能(TSV通孔、堆叠工艺)是物理硬约束。
H100需要6颗HBM3,每颗80GB;B200需要8颗HBM3E,每颗96GB。一颗AI服务器的HBM容量,是传统服务器的20-30倍。
HBM产能被三家垄断:SK海力士(2026年产能已售罄)、三星(HBM3E量产爬坡中)、美光(2026下半年才能放量)。
OpenAI CFO Sarah Friar透露:15个月前OpenAI基本只和单一巨头合作,现在已经引入AMD、Cerebras(超100亿美元合作,750兆瓦推理算力)。
CPU:AI服务器的"大脑"同样紧缺
AI服务器不仅需要强大的GPU进行并行计算,还需要高性能CPU作为"大脑"进行数据处理、任务调度和系统管理。随着AI模型规模的扩大和推理需求的增长,数据中心对CPU的需求同样呈指数级增长。
例如,英特尔和AMD等厂商的高端数据中心CPU,也面临着供不应求的局面,其产能和交付周期成为AI基础设施建设的又一制约因素。
长期缺能源:AI数据中心正在吃掉一个国家的电力
孙正义、OpenAI、甲骨文、MGX联合投资的“星际之门”(Stargate),规模5000亿美元。
美国2024年数据中心总电力消耗约150TWh。一个Stargate级别的超大规模数据中心集群,单项目就可能消耗50-100TWh。美国电网现有冗余容量大约只有100-200TWh。