AI大模型对带宽提出更高要求。算术强度(ArithemticIntensity)代表模型计算过程中,从内存中读取的每个字节进行浮点计算的次数。以TransformerDecoder为基础的模型如GPT,其算术强度显著低于CNN模型和以TransformerEncoder架构为基础的模型(如BERT),对访存带宽提出了更高要求。
英伟达新架构通讯带宽再上台阶。英伟达最新数据中心GPU架构Blackwell,相比上一代的Hopper架构,带宽在多个维度显著提升:1)HBM迭代至HBM3e(带宽8TB/s),相比H100的HBM3(带宽3TB/s)实现翻倍以上提升;2)NVLink带宽提升至1.8TB/s,相比Hopper架构翻倍;3)支持PCIe6.0,带宽提升至256GB/s,相比Hopper(PCIe5.0128GB/s)翻倍。
AI拉动光模块需求,重视技术迭代增量。数据中心GPU放量拉动光模块需求,LPO、CPO、硅光等是数据中心光模块技术重要迭代方向,包括:1)LPO/CPO不采用DSP芯片,降低系统损耗(LPO相比可插拔光模块功耗下降约50%)和成本(800GLPO总成本下降约8%);2)CPO缩短光引擎和芯片之间距离,减小尺寸、降低功耗、提高效率;3)硅光结合CMOS工艺超大规模、超高精度和光子技术超高速率、超低功耗(CPO/LPO架构下)的优势等。
GB200拓展Scaleup边界,降低客户TCO水平,拉动铜连接需求。英伟达最新机架解决方案GB200性能大幅提升,相同GPU数量下,训练速度可达H100的4倍;GB200NVL36可实现万亿大模型推理,吞吐量达H100集群的30倍以上。相比GH200,GB200的CPU:GPU配比由1:1降低至1:2,客户TCO(TotalCostofOwnership,总拥有成本)得以进一步降低。随着GB200在下游放量,背板连接器、铜缆等核心零部件有望受益增长。