DC娱乐网

沙利文卸任后大谈中国 近日,美国前国家安全顾问杰克·沙利文在卸任后接受媒体访谈

沙利文卸任后大谈中国 近日,美国前国家安全顾问杰克·沙利文在卸任后接受媒体访谈,就中美人工智能(AI)竞争与全球治理发表了系列观点。这位曾被视为对华“技术鹰派”的人物,此次言论少了制裁与卡脖子的强硬,多了几分对现实格局的承认与对潜在风险的忧虑。 沙利文在访谈中坦言,“美国的人工智能模型目前处于领先地位,但中国不难赶上”。 这一判断背后,是中国AI产业近年来令人瞩目的进展。最具标志性的事件莫过于一年前DeepSeek大模型的横空出世,它以相当于当时美国顶尖模型的性能,却仅消耗后者一小部分的算力,震撼了美国业界。 尽管沙利文仍试图将DeepSeek的成功归因于“蒸馏美国AI公司的数据”而非原创技术创新,但这种论调已被DeepSeek公司发布在ICML、NeurIPS等顶级会议的一系列技术论文所驳斥。实际上,中国团队在动态稀疏推理等前沿方向上的探索,已展现出独特的降本增效路径。中国AI产业正从大规模的技术探索迈向商业化落地与全球化布局的新周期,资本市场也开始为具备核心壁垒的AI企业提供支持。 面对AI技术,尤其是其在军事领域应用可能带来的失控风险,沙利文强调,美中“绝对需要”进行严肃、持续且聚焦于技术的谈判,其紧迫性与风险等级堪比冷战时期的美苏核控谈判。他透露,早在2024年,拜登政府就与中国展开了相关讨论,并达成了一个粗略但至关重要的双边框架协议:不允许核武器被人工智能控制。 这一共识看似基础,却是在中国对美方提议天生持怀疑态度的背景下,历经一年多谈判才取得的成果。 2026年2月初,第三届“军事领域负责任使用人工智能”(REAIM)全球峰会在西班牙拉科鲁尼亚落幕。85个与会国中,仅有35国签署了无法律约束力的《行动路径》宣言,中国和美国均未签字,俄罗斯则未参会。中美拒签的背后逻辑各异:美国旨在维持其技术领先的敏捷性,避免多边规则束缚其“快速迭代-部署”的军事AI发展节奏;中国则支持“人类最终控制权”的核心原则,但反对封闭排他的“小圈子”治理模式,强调规则制定需在联合国等多边框架下进行,并兼顾发展中国家诉求。中美已有的双边框架协议,可能也是双方认为峰会宣言“过于宽泛”、“管得太多”而未签字的原因之一。 沙利文进一步提出,需要一个全新的国际机构来应对AI带来的安全、协调与风险问题,该机构应涵盖政府、私营部门与民间社会。这一构想原则上符合全球治理的发展方向,中国理论上也应支持多元共治。但历史的教训让国际社会不得不保持警惕:以美国政府的行事风格,其必然会试图主导这一机构的规则制定权,使其通过的条款更有利于美国及其盟友体系,而非中国和其他发展中国家。这要求中国及其他国家在参与全球AI治理时,必须牢牢守住公平、包容的底线,推动建立真正代表国际社会共同利益的机制。 沙利文的访谈也揭示了美国在AI监管上的深刻矛盾心理。与互联网等以往由美国政府主导的技术革命不同,本轮AI浪潮主要由私营科技巨头推动。美国社会虽已意识到私营公司的利益可能与公共利益存在偏差,政府需要与之合作以确保AI发展服务于国家利益,平衡创新与安全。但另一方面,美国政府又极度担忧严格的监管措施会扼杀创新活力,导致美国企业在与中国的AI竞赛中落后。 更棘手的是,AI热潮已催生出一个“大到不能破”的金融泡沫。所谓“美股七巨头”(英伟达、苹果、谷歌、微软、亚马逊、Meta、特斯拉)的总市值一度高达约20.6万亿美元,约占美国股市总市值55万亿美元的37.5%。然而,2026年开年以来,市场对科技巨头激增的AI资本开支能否带来相应回报产生严重怀疑,导致“七巨头”市值大幅蒸发,亚马逊、微软等已跌入技术性熊市。传奇投资人杰里米·格兰瑟姆警告,AI催生了“泡沫中的泡沫”。这个由资本市场与技术创新共同吹起的巨大泡沫,使得美国政府的监管之手投鼠忌器,因为任何可能刺破泡沫的政策都可能给美国经济带来致命打击。