DC娱乐网

给大家说一个新东西:HBF(High Bandwidth Flash,高带宽闪存

给大家说一个新东西:HBF(High Bandwidth Flash,高带宽闪存)。

这东西为什么冒出来?一句话——推理太贵了。

现在做 AI 的都知道,HBM 是标配。比如 NVIDIA 的 H100、B200 这一类卡,核心旁边堆着 HBM,带宽极高,专门解决“内存喂不饱算力”的问题。没有它,大模型根本跑不动。

但问题也很明显:HBM 贵,而且容量上不去。你想在一台机器上多跑几个模型,或者挂一个超大模型,显存很快就顶满,成本更是夸张。

于是存储厂商开始推一个新方向:HBF。简单理解,就是把 3D NAND 往“更高带宽、更近封装”方向改造,试图卡在 HBM 和传统 SSD 之间,做一个中间层。

现在在积极推动这个方向的,基本都是存储大厂:三星,海力士,镁光,闪迪

他们的逻辑也很清晰:未来 AI 不只是训练,而是大规模推理。推理拼的是成本、功耗和容量。如果什么都靠 HBM,容量上不去,而且也来不及生产。

所以市场急需一个东西——比 SSD 快很多,但比 HBM 便宜很多。

HBF 就是在这个背景下被推到台前的。

它不会取代 HBM。HBM 还是算力核心的“心脏”。但在超大规模推理集群、或者端侧模型场景里,确实可能成为一个缓冲层,让更多模型能“装得下、跑得起”。

如果说前两年是“拼训练规模”的时代,那么现在明显进入“拼推理成本”的阶段了。这一波如果启动了,模型的推理成本可能大降,以后大家养虾自由就不是梦了。。