当英伟达CEO黄仁勋公开炮轰硅谷同行装上帝时,他揭开的并非一场关于人类存亡的哲学思辨,而是一场争夺人工智能行业话语权与定价权的商业暗战。

在这场较量中,有人试图用科幻式的末日恐慌来建立监管壁垒和商业垄断,而黄仁勋则试图把被神化的AI拉回现实。面对一项正在重塑生产力的技术,用散播恐惧的方式来圈地,是极其危险的商业图谋。
硅谷乃至全人类,需要的从来不是几个自封的数字救世主,而是脚踏实地解决现实问题的实干家。
制造恐慌,一门绝佳的护城河生意在2026年5月的一档播客中,黄仁勋用罕见的严厉措辞,将枪口对准了一批热衷于渲染AI末日论的硅谷高管。
他直言不讳地指出,有些CEO一旦上位,就容易产生一种上帝情结,仿佛自己突然变得无所不知,不仅肆意断言AI会消灭全人类一半的工作岗位,甚至宣称AI有极大概率导致人类灭绝。

黄仁勋没有直接点名,但所有人的目光都投向了Anthropic的CEO达里奥·阿莫迪,以及OpenAI的CEO山姆·奥特曼。

前者曾公开抛出AI有25%的概率导致灾难性后果的惊悚言论,后者则曾签署公开信,将AI的灭绝风险与核战争相提并论。
大众很容易将这些高管的警告视为科技精英对全人类命运的悲悯。但在充满真金白银博弈的硅谷,任何一种被大肆宣扬的宏大叙事,其底层往往都铺垫着极其精明的商业算计。
所谓AI末日论,在主观意图之外,客观上已经演变成了一门生意。
这是一种基于监管俘获逻辑的商业防御策略。监管俘获是一个经济学概念,指的是大型企业通过影响政策制定,促使政府出台极为严苛的行业标准。这些标准表面上是为了保护公众利益,实际上却大幅拉高了行业的准入门槛。
在AI领域,如果一种技术被定义为可能毁灭人类,那么它理所当然地需要最高级别的安全审查、最庞大的合规团队以及最不透明的黑盒开发环境。

这种昂贵的安全成本,只有握有数百亿美元融资的巨头才能承担,而那些原本可能靠技术创新颠覆格局的小型初创公司或开源社区,则会被高昂的合规成本直接绞杀。阿莫迪和Anthropic正是这种安全叙事的最大受益者。

通过贩卖可控风险与安全护栏,Anthropic精准切入了金融、医疗和政府等对风险极度敏感的企业级市场,其估值在短短几年内飙升至令人咋舌的近万亿美元。
当你把自己的产品包装成唯一能锁住恶魔的锁,你卖的就不再是技术,而是免于恐惧的赎罪券。黄仁勋的愤怒正是源于此处:他看透了这种一边高喊狼来了,一边又拼命加速造狼的虚伪。
用恐惧来获取市场控制权,不仅在道德上站不住脚,更是在扼杀整个生态的创新活力。
算力巨头的底线:AI是工程,不是神学作为AI时代绝对的算力霸主,黄仁勋的世界观是纯粹的工程师思维:问题是通过建造来解决的,而不是通过恐吓来规避的。

在播客中,黄仁勋提出了一个极为深刻的洞察,即区分任务与目的。他指出,很多人之所以陷入AI替代人类的恐慌,是因为他们混淆了这两个概念。AI能够自动化的仅仅是具体任务,但人类存在的价值在于目的。
为了解释这个逻辑,他举了放射科医生的例子。十年前,当深度学习刚刚兴起时,硅谷充斥着放射科医生即将失业的论调,理由是AI看片子的速度和准确率远超人类。
但十年后的现实是,AI确实接管了大量看片的任务,但社会对放射科医生的需求反而大幅增加。因为医生的目的是诊断疾病、拯救生命,当AI降低了看片的成本和时间后,医疗服务的可及性大幅提升,反而释放了庞大的潜在医疗需求。
这不仅是一个关于就业的辟谣,更是黄仁勋对抗末世神学的底层逻辑体系。在他看来,过去的计算机是在做检索,而现在的AI是在做生成,这本质上是人类计算基础设施的一次历史性跃迁,就像工业革命时期的发电厂。

从商业利益的角度来看,英伟达是算力的提供者,它最渴望的是AI生态的全面繁荣和无处不在的落地应用。
无论是大型科技公司还是车库里的创业者,无论是闭源的商业模型还是开源的社区项目,只要有人在训练和推理,就需要买英伟达的GPU。

因此,阿莫迪所代表的闭源与集中化的安全派路线,直接触碰了英伟达的商业底线。如果AI被描述成一种只有极少数巨头才能掌控的危险武器,那么整个行业的创新步伐必将放缓,英伟达的潜在客户群体将被大幅压缩。
相反,黄仁勋极力推崇开源,他主张用蜂群战术来解决AI安全问题,即用大量开源的防御性AI去对抗恶意的AI。这种逻辑既符合去中心化的技术极客精神,也完美契合了英伟达卖算力军火给所有人的商业利益最大化诉求。
工程师不相信上帝,他们只相信工具的普及和问题的迭代。黄仁勋试图把AI从神坛上拉下来,让它重新成为一个能提高生产力的商业模式。
夺回定价权:未来的剧本不能由少数人独撰在这场针锋相对的冲突背后,隐藏着一个更加不容忽视的社会学危机:谁有资格为全人类的未来定价?
当几位手握核心代码和巨额资本的硅谷CEO,在播客和聚光灯下轻飘飘地给出25%的毁灭概率或五年内消灭一半入门级白领岗位的预测时,他们实际上是在滥用自己作为技术先发者的权力。

这种不负责任的预测,正在对真实的社会运行产生巨大的破坏力。
正如黄仁勋所担忧的,如果年轻人因为听信了科技大佬的恐吓,认为学编程或学医没有未来而放弃进入这些领域,但社会实际的发展却因为AI的赋能而需要更多的专业人才,那么这种恐吓就变成了真正坑害社会的毒药。
这是一种典型的自我实现的预言:恐惧导致人才断层,人才断层导致行业停滞,最终全社会的进步因此受阻。

更为致命的是,这种恐慌情绪的蔓延正在地缘政治的层面上改变竞争格局。黄仁勋敏锐地指出,当美国国内在被科幻电影般的焦虑所裹挟,纠结于如何监管和限制AI时,亚洲的竞争对手正在毫无包袱地热情拥抱这项技术。
在这个算力即国力的时代,过度担忧风险本身就是一种最大的系统性风险。当你在实验室里为如何给超级智能上锁而争吵时,别人已经用不够完美的模型在工厂流水线上降本增效了。

这正是这场叙事战争的残酷之处。阿莫迪们的谨慎,或许在某种理想状态下具有伦理学的探讨价值,但在现实粗粝的商业和国家竞争泥潭中,这种为了确保万无一失而选择的减速,往往意味着将未来的主导权拱手让人。

这绝不是在为AI可能带来的真实风险开脱。数据隐私、算法偏见、甚至深度伪造对公共秩序的冲击,都是亟待解决的问题。
但解决这些问题的方法,应该是具体的、针对性的法规与技术补丁,而不是把整个技术渲染成不可触碰的潘多拉魔盒。我们需要的是对症下药的医生,而不是宣扬末日降临的先知。
结语黄仁勋与硅谷末日论者的这场交锋,注定会成为人工智能发展史上的一个标志性节点。它撕开了罩在AI安全叙事表面的温情脉脉的面纱,将背后赤裸裸的商业博弈、生态垄断与话语权争夺暴露在阳光之下。
黄仁勋的愤怒之所以有价值,是因为他以一个硬核实干家的姿态,狠狠喷击了这种正在成型的寡头共识。
AI属于所有人,它不该被描述为悬在人类头顶的达摩克利斯之剑。