博通不做GPU,却让英伟达和台积电都得跟着它改规矩,这到底算哪门子芯片? 最近刷到不少讲AI芯片的新闻,基本都在说英伟达又出新卡了,台积电3纳米量产了。但其实有家叫博通的公司,悄悄干了一件更实在的事:它没去卷晶体管数量,也没堆CUDA核心,而是把几块不同工艺的芯片,面对面“焊”在一起——用的是铜直接键合,不是以前那种打孔穿线(TSV)的老办法。信号跑得更快,发热少得多,连富士通、谷歌、微软这些大厂,现在找它不是买成品芯片,是请它一起搭底座。 这东西叫XDSiP,听名字很技术流,说白了就是个可拼装的芯片“乐高底板”。客户说我要多少算力、多大带宽、多低延迟,博通就配好2纳米计算芯加5纳米I/O芯,再塞进光模块接口。台积电只管造,不插手怎么叠。以前芯片是客户画图、博通流片、一次定型;现在客户提需求,博通给框架,上层逻辑还能自己写。OpenAI跟它合作的TPUv6相关项目,根本没买整颗芯片,是在博通的堆叠平台上“盖楼”。 很多人看财报说博通AI芯片收入涨了两倍,到82亿美元,以为它突然卖爆了。其实没那么多现货,所谓“100万颗”,是2024到2027年所有客户定制芯片加起来的物理交付总数。富士通一颗,谷歌三颗,某个没露面的超算中心五颗……全是不同型号,但都踩在同一个3.5D堆叠底座上。客户肯多掏15%到20%的钱,就为省下22%的系统功耗——这钱花得比买散热器实在。 当然也不是没卡壳。堆到八层的时候,散热直接报警,现在两层就得重新设计冷板;而且F2F铜键合太挑台积电的2纳米良率,差一点,整块就废。谷歌自己TPU团队越来越强,以后未必事事商量着来;英伟达也在推液冷+光互联,慢慢往博通的地盘蹭。技术再狠,也得一块晶圆一块晶圆地过检。 博通现在干的事,表面是做芯片,实际是在重画AI硬件的“施工图”。当晶体管缩不下去,堆叠就不是选项,是必须走的路。它不卖算力,卖的是让算力能落地的那层“地基”。 芯片堆起来,才算真正立住。


