META 或将采用 TPU UBS (T. Arcuri, 25/11/30) META 潜在采用 TPU 的意义 市场消息称 META 正考虑最早2027 年部署 Google TPU,引发 ASIC vs GPU 再度讨论。专家认为 TPU 的软件生态比 AMD ROCm 更成熟,对 NVDA 竞争更直接。TPU 过去在部分工作负载上可提供 30%–40% 甚至最高 2 倍的TCO 优势。Google 亦有意扩大 TPU 生态,对外销售可能性上升。若 META/AAPL 采用 TPU,将因其自研 AI 规模大、对 GCP 依赖小、技术集成成本低(PyTorch/XLA 支持)而成为潜在目标。 TPU 最新路线图:愈发 GPU化 Google 于 2025 年发布 Ironwood,支持 LLM、MoE、推理/训练/微调等全场景,与此前偏推理的Trillium 不同。Ironwood 增强 FP8、HBM 容量与规模化能力(最高 9,216 芯片),预期性能显著提升。 NVDA 来自渠道的反馈 NVDA 强调与 GCP 关系稳固,认为云厂商不太会大规模采用 TPU,因为 ASIC 的 TCO 优势依赖深度优化。NVDA 指出其性能优势未缩小,并称 Anthropic 的 1GW 和 HUMAIN 的新增 60万颗订单均为对 2025–2026 年 500B 美元订单的“额外增量”。CPX 芯片瞄准长上下文推理场景,相关需求约占推理市场 20%。