从2022年12月22日OpenAI发布ChatGPT-3.5以来,推进GenAI(生成式人工智能:Genetic Artificial Intelligence)技术应用所需的AI芯片成本、基础设施能力和能耗,成为科技公司资金的“虹吸器”,在一定程度上抵消了围绕这项技术的显性或隐性收益。
故而,包括微软、亚马孙和谷歌,英特尔、AMD和高通等等在内的美国科技巨头,无不加入自研AI芯片的大军,Meta也是其中的一员。
Meta自研推理芯片:今年完成部署在Meta创下美股史上单日最高涨幅纪录的同时,该公司一份内部文件曝光:Meta计划今年在该公司的数据中心部署新版自研定制芯片(ASIC),以支持其AI业务的进一步发展。
在过去的2023年,这家公司在推动AI和元宇宙的愿景方面,“取得了很大进展”,Meta首席执行官马克·扎克伯格(Mark Zuckerberg)在其财报会议上说。
Meta发言人证实了这项计划并称,其自研芯片将与Meta购买的现成的英伟达GPU协同以增强AI算力,共同夯实该公司的AI基础设施能力。这位发言人表示,Meta自研芯片将在2024年投产,以此降低AI加速卡采购成本,减少对英伟达的依赖。
公开信息显示,Meta的这款ASIC在内部被称为“Artemis”,主要性能集中在推理领域,技术开发基于2023年宣布的第二代内部芯片产品线。
Meta公布了截至2023年12月31日的2023财年第四财季业绩:各项财务数据大幅超出此前市场预期;同时,Meta对今年一季度的经营业绩也做出了超出预期的乐观预估,故而Meta股价在2月2日(北京时间)录得美股史上最大单日涨幅纪录。
专为大模型定制AI芯去年5月,Meta首次展示了最新芯片系列——「Meta训练和推理加速器」(MTIA),旨在加快并降低运行神经网络的成本。
MTIA是一种ASIC,一种将不同电路组合在一块板上的芯片,允许对其进行编程,以并行执行一项或多项任务。Met首款芯片将在2025年投入使用,同时数据中心开启测试。不过,据路透社报道,Artemis已经是MTIA的更高级版本。
其实,第一代的MITA早就从2020年开始了,当时MITA v1采用的是7nm工艺。该芯片内部内存可以从128MB扩展到128GB,同时,在Meta设计的基准测试中,MITA在处理中低复杂度的AI模型时,效率要比GPU还高。
在芯片的内存和网络部分,Meta表示,依然有不少工作要做。随着AI模型的规模越来越大,MITA也即将遇到瓶颈,因此需要将工作量分担到多个芯片上。
当时,Meta团队还设计了第一代MTIA加速器,同样采用台积电7nm,运行频率为800MHz,在INT8精度下提供102.4 TOPS,在FP16精度下提供51.2 TFLOPS。它的热设计功耗(TDP)为25W。
2022年1月,Meta还推出了超算RSC AI,并表示要为元宇宙铺路。RSC包含2000个英伟达DGX A100系统,16000个英伟达A100 GPU。这款超算与Penguin Computing、英伟达和Pure Storage合作组装,目前已完成第二阶段的建设。
免责声明:
1、本号不对发布的任何信息的可用性、准确性、时效性、有效性或完整性作出声明或保证,并在此声明不承担信息可能产生的任何责任、任何后果。
2、 本号非商业、非营利性,转载的内容并不代表赞同其观点和对其真实性负责,也无意构成任何其他引导。本号不对转载或发布的任何信息存在的不准确或错误,负任何直接或间接责任。
3、本号部分资料、素材、文字、图片等来源于互联网,所有转载都已经注明来源出处。如果您发现有侵犯您的知识产权以及个人合法权益的作品,请与我们取得联系,我们会及时修改或删除。