记者问:“中美AI差距到底有多大?”梁文锋毫不避讳、一针见血地回答:“表面上中国AI与美国可能仅有一两年的技术代差,但真实的差距是原创和模仿之差。如果这个差距不改变,中国永远只能是追随者,所以有些探索是逃不掉的。” 2025年最新出炉的 AI发展蓝皮书里有组数据特直观,中美顶尖AI模型在综合性能评分上,差距已经缩到 0.28% 了。 字节跳动的火山方舟大模型,在中文语义理解、多模态生成上,比 OpenAI 的 o1 还高出 1.3 个百分点。 再看垂直领域,中国已经落地了 2300 多个行业大模型,政务上能办社保、办审批,金融里能做风险评估、智能投顾,物流行业用 AI 调度车辆能省 30% 的运输成本,光看应用覆盖面和数量,咱确实不落下风。 但剥开这些亮眼的表象,底层的差距却不容忽视,中国的AI 企业大多是在这些既定框架内做优化和适配,就像在别人搭建好的舞台上编排新节目,再精彩也难以摆脱原有框架的束缚。 再说说算力这块,AI发展离不了的“硬支撑”,差距那叫一个明显。美国现在占着全球76% 的新增智能算力,微软2025年直接砸了850亿美元建AI超算中心,里面装了120万块英伟达H100GPU,单台超算的总算力能达到1.8EFLOPS。 OpenAI训练GPT-4 Turbo的时候,动用了3.2万块H100,连续训练了90天,马斯克的xAI更狠,计划5年内搞出等效6000万块H100的算力集群。 而咱中国因为芯片出口限制,拿不到最先进的GPU,智能算力总规模还不到美国的 12%。就算国产芯片在发力,华为昇腾910B、壁仞BR100的性能能达到H100 的 70% 左右,但生态还没完善,很多企业训练模型时只能凑合用。 比如Deep Seek训练最新的R2模型,只用了2560块H800,而 OpenAI训练 GPT-5的算力投入是它的50倍还多,硬件上的差距直接让模型训练的上限打了折扣。 数据作为 AI 的 “口粮”,两国的积累更是不在一个档次,美国拥有超百年沉淀的海量多元数据,覆盖了科技、医疗、工业等众多领域,再加上掌控着互联网核心枢纽,能够确保数据的稳定供应。 而咱中国的数据以中文为主,大量公共数据分散在不同政府部门,企业能拿到的高质量训练数据有限。有机构统计,2024 年中国企业可用于大模型训练的有效数据量,还不到美国的 8%。 就拿自动驾驶来说,美国 Waymo 积累了超 3200 万公里的真实道路数据,而国内头部车企的自动驾驶数据量大多在 500 万公里以内,数据不够,AI 在复杂路况下的判断能力自然就差点意思。 专利和人才的差距则更能反映创新生态的成熟度。 中国的AI 专利申请数量是美国的4倍,AI 人才总量也早已超过美国,全球人工智能领域Top100人才榜单中,有50位中国科学家入选,中国科学院、清华大学等机构在顶刊论文发表量上也名列前茅。 不过咱也不是没亮点,国内不少企业和机构已经开始往原创上发力了。 中国科学技术大学研制出的量子AI计算芯片,把模型训练效率提升了100倍,相关技术已经申请了28项核心专利。 字节跳动的火山方舟推出了自主研发的“方舟架构”,在多模态理解上打破了局限,深圳的AI辅助药物研发平台,把抗癌药物的研发周期从5年缩短到18个月,这些都是实打实的进步。 中美 AI 的差距,从来不是简单的技术快慢,而是底层逻辑、创新生态的差距。 现在 AI 竞争就像跑长跑,前半程咱靠跟跑赚了不少优势,但后半程想超越,必须得有自己的核心技术、自己的生态体系。 相信随着越来越多企业把钱投到基础研究,产学研的壁垒慢慢打破,原创成果能得到更多支持,咱中国 AI 肯定能慢慢摆脱追随者的身份。 毕竟咱有庞大的市场、充足的人才和不服输的劲头,只要找对方向、坚持下去,未来在全球 AI 领域,咱一定能拥有自己的话语权,这不是空谈,而是正在发生的事实。 对于这件事,您有什么想说的吗?欢迎评论区留言讨论。
