黄仁勋:Blackwell芯片不少零组件是由大陆企业提供的!

芯片界小小学生 2024-03-22 08:36:50

3月21日消息,在英伟达GTC 2024大会的第二天,英伟达创始人兼CEO黄仁勋举行了记者会,历时一个半小时。期间,关于中美关系对于英伟达的影响、供应链安全、CoWoS/HBM产能供应、AI芯片企业的竞争、通用人工智能等问题成为全场关注的焦点。

加强供应链的韧性与弹性

黄仁勋强调,在中美对抗升温之际,英伟达将确保“理解政策并遵守”,同时在供应链“创造更多弹性”。同时,他也认为,被迫放弃与台积电和亚洲制造业合作的可能性很低。

黄仁勋强调,“我们正在做两件事:一是确保我们理解并遵守政策。二是尽一切努力增强供应链的弹性。”“世界末日的场景不太可能发生,我们也不期望它发生。”

对于英伟达最新推出的性能较前代Hopper架构产品提升了2.5倍的Blackwell架构AI芯片平台,黄仁勋表示,该平台是由数万个零组件制成,这些零件来自世界各地,除了台积电之外,其他不少零组件也是由中国大陆企业提供,现在供应链安全确实面更多临挑战,并且也变得更加复杂。他认为,各国目标并不是敌对,随着AI芯片的需求持续飚升,英伟达与台积电等供应链的关系应该会变得更紧密。

△NVIDIA GB200

(这里插一句:早在今年1月,长电科技曾表示其XDFOI™ Chiplet高密度多维异构集成系列工艺已按计划进入稳定量产阶段,同步实现国际客户4nm节点多芯片系统集成封装产品出货,最大封装体面积约为1500mm²的系统级封装。有业内人士推测,长电科技提到的“国际客户4nm节点多芯片系统集成封装产品”,大概率是指英伟达的NVIDIA GH100 CPU+GPU模块。那么是否英伟达最新的Blackwell平台,长电科技也有提供一些助力呢?)

黄仁勋指出,AI正经历转型,目前正是AI世界加速开始的时候,“我们才刚起步,台积电一直是我们优秀的合作伙伴”。“我们所做的事情非常困难”,但台积电的表现非常出色,英伟达和台积电的关系应该更紧密。

针对美国新的出口管制政策对于英伟达在华业务的影响,黄仁勋表示,新推出的Blackwell芯片也将会受到美国出口管制政策的限制。不过,他并未回应英伟达是否会针对中国大陆市场开发特殊版本,仅表示,部分低阶版本GPU仍将持续在大陆销售。

对于CoWoS先进封装产能需求会非常高

众所周知,目前英伟达的AI芯片除了是由台积电独家进行晶圆代工之外,还来依赖于台积电的CoWoS先进封装产能。对于此前英伟达A100/H100等AI芯片的供应紧缺的问题,台积电CoWoS产能紧缺也是一个主要瓶颈。

黄仁勋在此次记者会上,并未透露英伟达目前对于CoWoS产能需求的准确数字。不过,他两次强调,“我们今年对CoWoS的需求非常高!”

为应对英伟达激增的CoWoS产能需求,台积电在2023年启动了其CoWoS先进封装产能大扩产计划。近期业内传出,台积电本月对台系设备厂再度追单,交机时间预计将在今年第四季,因此,今年年底台积电CoWoS月产能将有机会比其原定的倍增目标的3.5万片进一步提高到4万片以上。

报道称,台积电正全力冲刺CoWoS产能,目标2024年翻倍成长,2025年也将持续扩增。公司去年一开始先将部分InFO产线从龙潭移至南科,挪出空间扩产,之后台中AP5也从原本规划扩充CoWoS中的WoS,也拍板要一并扩充CoW,另外规划中的铜锣、嘉义厂也评价再增加产能。

随着台积电CoWoS产能的持续放大,英伟达AI芯片的出货也有望仔今年继续扩大。

黄仁勋表示,英伟达生产的芯片和软件种类繁多,正处于有利地位,世界对AI运算投资还在早期阶段,预测将会有多年成长,英伟达的市占率会高于其他芯片制造商。

黄仁勋前一日在接受CNBC专访时表示,每颗Blackwell芯片将要3-4万美元。英伟达首席财务官财务长柯蕾丝(Colette Kress)则表示,英伟达Blackwell芯片和相关系统将于今年稍后上市,明年出货量会大幅增加。

Meta近日也表示,要在今年底前取得英伟达B200芯片的首批出货。Meta将全力布局AI领域,积极训练下一代模型Llama 3,如何建立庞大的运算基础设施成为最大决胜关键。此前消息也显示,Meta今年也将大举采购目前辉达在市面上主流高阶H100 AI芯片,预计买35万颗。

据研调机构Omdia报告,英伟达H100芯片去年第4季最大客户为Meta及微软,分别购买了15万颗,以英伟达去年第4季H100芯片出货总量50万颗来计算,Meta相当于手握30%的最先进AI芯片供应。

HBM是一个技术奇迹

随着AI的持续火爆,在带动了英伟达AI芯片需求的同时,也使得AI芯片当中的关键组件——HBM(高带宽内存)持续供不应求。而目前HBM供应商仅有SK海力士、美光和三星,此前SK海力士是英伟达HBM的唯一供应商。

为了解决HBM的供应问题,在此次记者会上,黄仁勋就表示,英伟达计划从三星采购高带宽内存(HBM)芯片,这是众多人工智能处理器的关键组件。

“HBM 内存非常复杂,附加值非常高。我们在 HBM 上投入了大量资金,”英伟达创始人兼首席执行官黄仁勋周二在加利福尼亚州圣何塞举行的媒体会上表示。

黄仁勋表示,英伟达正在对三星的 HBM3E芯片进行资格认证,并将在未来开始使用它们。“三星非常好,一家非常好的公司。”黄仁勋说道。

与此同时,三星在存储芯片领域的最大竞争对手SK海力士于本周二宣布,已开始量产下一代高带宽存储芯片HBM3E。

黄仁勋表示:“HBM 是一个技术奇迹。”他补充说,HBM 还可以提高能源效率,并且随着耗电的人工智能芯片变得更加普遍,可以帮助世界变得更加可持续。

△SK Hynix 的 HBM3 芯片搭载 Nvidia Hopper 100 GPU

SK 海力士此前实际上是 AI 芯片领导者英伟达所需的 HBM3 芯片的唯一供应商。虽然SK海力士没有透露其新 HBM3E 的客户名单,但 SK 海力士高管告诉《日经亚洲》,新芯片将首先发运给英伟达,并用于其最新的 Blackwell GPU。

三星一直在 HBM 上投入巨资,以追赶SK海力士。三星于2月份宣布开发出HBM3E 12H,这是业界首款12堆栈HBM3E DRAM,也是迄今为止容量最高的HBM产品。三星表示,将于今年上半年开始量产该芯片。

△三星今年早些时候宣布开发出 HBM3E 12H,这是迄今为止容量最高的 HBM 产品。

黄仁勋在媒体会上对记者表示:“三星和 SK 海力士的升级周期令人难以置信,一旦英伟达开始增长,他们就会与我们一起成长。”“我非常重视我们与 SK 海力士和三星的合作关系,”他补充道。

需要指出的是,除了SK海力士和三星之外,美光也将成为英伟达的HBM3E供应商。美光公司于当地时间 2 月 26 日宣布,计划为英伟达最新 GPU H200 提供 8 个堆栈的 24 GB HBM3E,该 GPU 预计将于今年第二季度推出。

不过,SK海力士将会是最先向英伟达大量供货HBM3E的厂商,美光次之,而三星的HBM3E目前尚未通过英伟达的认证。

数名分析人士指出,三星HBM3的良率目前只有10~20%,SK海力士的HBM3良率却已达到了60~70%。

也有业内人士表示,“凭借在HBM3方面的技术优势,SK海力士有望在HBM3E市场上继续与英伟达保持牢固的合作关系。不过,随着三星电子推出业界最大容量的 12 堆栈 HBM3E 作为游戏规则的改变者,高堆栈 HBM 的竞争预计将加剧。”

随着AI芯片市场需求的扩大,HBM销售额占DRAM收入的比例正在迅速增加。市场研究公司TrendForce预测,HBM销售额占DRAM总营收的比重将从2022年的2.6%上升至2023年的8.4%,今年将进一步升至20.1%。HBM的产能预计今年也将大幅增加。

TrendForce的数据显示,去年三星电子和SK海力士每月生产约45,000片晶圆,但今年,三星电子的产量预计将增至130,000片,SK海力士的产量将增至120,000至125,000片。美光在 HBM 市场排名第三,预计去年每月生产 3,000 片晶圆,今年每月生产 20,000 片晶圆。

如何面对新兴AI企业的竞争?

虽然AI热潮对于英伟达AI芯片需求的持续暴涨,英伟达的营收和市值也在快速增长。该公司的市值在 2023 年 5 月突破了1万亿美元,使这家芯片制造商跻身于微软、苹果、Alphabet 和 Meta 的稀有公司之列。今年 2 月,英伟达宣布其 2023 年营收为 608 亿美元,比2022年大幅增长了126%。同月,其市值达到 2 万亿美元,仅次于微软和苹果。

这些庞大的数字在一定程度上是对整个人工智能市场的押注,据市场研究公司 Spherical Insights预测,到 2032 年,整个人工智能市场的规模将飙升至 2.76 万亿美元。

庞大的市场需求,以及英伟达对于AI芯片市场的垄断性地位和其高昂的AI芯片定价,也引吸引了Cerebras、Graphcore、Groq 和 SambaNova 等众多新兴的AI芯片竞争对手的挑战。

当被问及其他AI芯片厂商是否可能会迎头赶上的问题时,黄仁勋指出,英伟达的AI芯片已经无处不在,这需要多年时间才能实现,而且不容易复制。“我们是世界上唯一一个在所有云中都可用的架构。它可以在私有云中使用,可以在本地使用,也可以在汽车、机器人和工厂的边缘使用。”

“英伟达拥有非常深的护城河,”英伟达合作伙伴、人工智能和量子软件公司 SandboxAQ 的首席执行官 Jack Hidary 表示。“我预计这种竞争优势不仅会持续存在,而且会在未来四五年内真正增长。”

市场研究机构IDC 的 Rutten 表示,新来者最好不要正面挑战人工智能硬件领域的霸主,而是寻求自己的利基市场。例如,芯片初创公司Recogni没有进军人工智能模型训练市场(英伟达硬件可能无法取代该市场),而是专注于推理——从模型中提取信息并将其用于特定目的的过程,例如先进的驾驶辅助系统。

另一个潜在的主要威胁来自于大型科技公司。例如亚马逊、微软、谷歌和 Meta 都投入了资源来开发自己的定制芯片,这可能预示着有一天他们将更全面地掌控自己的人工智能命运。其中,谷歌凭借其张量处理单元(TPU)在这条道路上走得特别远,目前已经是第五代了。同样,亚马逊、微软和Meta也都有推出自己的AI芯片。

对此,黄仁勋回应称:“如果大公司想要构建自己的芯片,我们仍然会增强它们。每当他们将我们纳入他们的云中时,我们就会为他们带来很多很多的客户。我们为他们带来了很多开发人员。”

黄仁勋认为,参与英伟达充满活力的生态系统最终是一种自身利益的行为——大型科技公司的持续拥抱英伟达生态,似乎也证实了这一立场。

通用人工智能还需要 5 年时间,AI 幻觉是可以解决的

在今年3月1日的于斯坦福大学举行的一个经济论坛上,黄仁勋就被问及需要多长时间才能实现AGI(通用人工智能),即创建能像人类一样思考的计算机。

对此,黄仁勋回答称,如果对通用人工智能的定义是通过人类测试的能力,那么这一目标五年内就能实现。截至目前,人工智能已经可以通过律师资格考试等测试,但在胃肠病学等专业医学考试中仍表现不佳。但黄仁勋认为,在五年内,它应该能够通过任何单个测试。不过,黄仁勋也提到,要实现更高要求的通用人工智能,可能仍然很难,因为科学家们在如何描述人类思维的工作方式上仍然存在分歧。

在此次的记者会上,有记者再度提出了这个问题,即何时能够看到真正的AGI。

黄仁勋认为,预测我们何时会看到一个AGI(通用人工智能)取决于你如何定义 AGI。因为这其中有一些相似之处:即使时区的复杂性。你知道新年何时到来以及 2025 年何时到来。如果你开车前往圣何塞会议中心(今年 GTC 会议的举办地),当你看到巨大的 GTC 横幅时,通常就知道你已经到达。关键的一点是,我们可以就如何衡量你是否已经到达你希望去的地方(无论是时间上还是地理空间上)达成一致。

“如果我们将 AGI 指定为非常具体的东西,即软件程序可以做得很好的一组测试,或者可能比大多数人好 8%,我相信我们将在 5 年内实现这一目标。”黄仁勋解释道。

黄仁勋建议,这些测试可以是法律律师考试、逻辑测试、经济测试,或者也许是通过医学预科考试的能力。除非提问者能够非常具体地了解 AGI 在问题中的含义,否则他不愿意做出预测。

在当地时间周二的问答环节中,黄仁勋还被问到如何应对人工智能幻觉——一些人工智能倾向于编造听起来似乎合理但没有事实依据的答案。他显然对这个问题感到沮丧,并表示人工智能幻觉是很容易解决的——只要确保答案经过充分研究。

黄仁勋说:“添加一条规则:对于每个答案,你都必须查找答案。”他将这种做法称为“检索增强生成”,并描述了一种与基本媒体素养非常相似的方法:检查来源和上下文。将来源中包含的事实与已知事实进行比较,如果答案实际上不准确(即使是部分不准确),则丢弃整个来源,并继续进行下一个来源。“人工智能不应该只是回答;它应该首先进行研究,以确定哪个答案是最好的。”

对于关键任务的答案,例如健康建议或类似问题,黄仁勋建议,也许检查多种资源和已知的事实来源才是前进的方向。当然,这意味着创建答案的生成器需要可以选择说:“我不知道你问题的答案”,或者“我无法就正确答案达成共识”这个问题是,”或者甚至是类似“嘿,超级碗比赛还没有发生,所以我不知道谁赢了。”

来源-芯智讯

0 阅读:2

芯片界小小学生

简介:感谢大家的关注