美光HBM3E内存容量高达36GB采用12-Hi设计速度9.2G...

智视角科技看 2024-09-06 17:02:35

美光已开始采样其“生产就绪型”HBM3E 内存解决方案,在 12-Hi 设计中提供高达 36 GB 的容量。

新闻稿:为了满足这些需求,美光处于内存创新的前沿,现在正在向主要行业合作伙伴交付具有生产能力的 HBM3E 12-high,以在整个 AI 生态系统中进行认证。

美光 HBM3E 12 级处理器拥有令人印象深刻的 36GB 容量,比当前的 HBM3E 8 级产品增加了 50%,允许像 Llama 2 这样具有 700 亿个参数的大型 AI 模型在单个处理器上运行。这种容量增加通过避免 CPU 卸载和 GPU-GPU 通信延迟来加快洞察时间。

美光 HBM3E 12 高 36GB 的功耗明显低于竞争对手的 HBM3E 8 高 24GB 解决方案。美光 HBM3E 12 高 36GB 以超过 9.2 Gb/s 的引脚速度提供超过 1.2 TB/s 的内存带宽。HBM3E 的这些综合优势以最低的功耗提供最大的吞吐量,并确保高耗电的数据中心获得最佳结果。

此外,Micron HBM3E 12-high 集成了完全可编程的 MBIST,可以全规格速度运行系统代表性流量,为加快验证提供改进的测试覆盖率,从而加快上市时间,并提高系统可靠性。

美光现在正在向主要行业合作伙伴交付具有生产能力的 HBM3E 12 高单元,以在整个 AI 生态系统中进行认证。HBM3E 12 高的里程碑展示了美光为满足不断发展的 AI 基础设施的数据密集型需求而进行的创新。

美光还是台积电 3DFabric 联盟的合作伙伴,该联盟帮助塑造半导体和系统创新的未来。AI 系统制造很复杂,HBM3E 集成需要内存供应商、客户和外包半导体组装和测试 (OSAT) 参与者之间的密切合作。

综上所述,以下是美光 HBM3E 12 高 36GB 的亮点:

正在接受多项客户资格认证:美光正在向主要行业合作伙伴交付具有生产能力的 12 层高单元,以实现整个 AI 生态系统的资格认证。无缝可扩展性:HBM3E 12 高具有 36GB 的容量(比当前的 HBM3E 产品增加了 50%),使数据中心能够无缝扩展其不断增长的 AI 工作负载。卓越的效率:Micron HBM3E 12 高 36GB 的功耗明显低于竞争对手的 HBM3E 8 高 24GB 解决方案!卓越的性能:HBM3E 12 高 36GB 的引脚速度超过 9.2 Gb/s,可提供超过 1.2 TB/s 的内存带宽,为 AI 加速器、超级计算机和数据中心提供闪电般的数据访问。加速验证:完全可编程的 MBIST 功能可以以代表系统流量的速度运行,为加快验证提供更高的测试覆盖率,加快上市时间,并提高系统可靠性。
0 阅读:0

智视角科技看

简介:感谢大家的关注