DC娱乐网

北大团队造出AI“超级芯”:算力比GPU快1000倍,中国科研这次真硬气!

当全世界都在为AI的“算力焦虑”发愁时,北京大学的一项突破,像是一声炸雷,直接劈开了科技界的天幕。10月13日,《自然》

当全世界都在为AI的“算力焦虑”发愁时,北京大学的一项突破,像是一声炸雷,直接劈开了科技界的天幕。10月13日,《自然》刊登了北大人工智能研究院孙仲团队与集成电路学院的研究成果——一枚基于阻变存储器的高精度模拟矩阵计算芯片正式亮相。这枚芯片,不仅让AI算力提速1000倍,更把能耗降低了上百倍。网友一句话总结:“这波北大,真·开挂了!”

要知道,在AI行业,算力就是“燃料”。没有算力,再聪明的算法都跑不动。过去几年,从ChatGPT到Sora,从百度文心到阿里通义,谁掌握算力,谁就能定义AI的速度。而现在,北大用一块芯片,直接给AI加了“物理外挂”。

这枚芯片的核心秘密在于——它不再依赖传统的数字计算架构,而是采用模拟计算。简单来说,以前计算是靠无数个0和1在芯片里翻腾,而现在,电流本身就能“思考”。这听起来像魔法,但其实是物理。孙仲团队用了阻变存储器,让每一个电信号都能在流动中“计算”出结果,这让计算速度暴涨,能耗却几乎为零。

更难得的是,他们首次将模拟计算的精度提升到24位定点精度。这意味着,以往人们担心的“模拟误差大”“不够准”的问题被彻底解决。北大这次不只是提速,而是把模拟计算从“实验室玩具”变成了能真正商用的未来技术。

如果说GPU是用堆积的晶体管在拼命算,那么北大的这枚芯片就是在让物理世界自己算。计算不再是“数字逻辑”的堆叠,而是“自然运算”的呈现。更妙的是,它在求解128×128矩阵问题时,算得比顶级GPU还快1000倍!这意味着,一个原本要几个小时的AI模型训练,现在几秒钟就能搞定。

这不仅仅是性能的跃迁,更是计算理念的转向。几十年来,全世界都在追逐更强的GPU、更快的晶体管、更小的制程。但现在,中国科学家告诉世界:或许不必“卷”数字电路,换个思路,用物理规律来算,也能更快、更稳、更省。这是一种完全不同的创新路径。

有人说,这是一次“换道超车”的经典案例。毕竟,在GPU领域,我们长期依赖海外巨头;但在模拟计算领域,谁都没跑太远,而北大这次率先破局,等于是开辟了一条“新赛道”。这种从0到1的创新,才是真正的“硬核实力”。

更让人感动的是,这一切并不是在豪华实验室堆钱堆出来的。孙仲团队从2018年开始钻研阻变存储器,实验室灯常年亮到凌晨,他们在几十次失败后,终于摸索出稳定的精度控制方案。团队的研究笔记上,有一句话让人印象深刻:“不是为了赶英伟达,而是为了让计算更接近真实的世界。”这句话,比任何新闻稿都更有力量。

这次的成功,不仅让“AI算力焦虑”看到出路,也让中国科研的底气更足。我们过去常常担心被“卡脖子”,GPU断供、技术封锁,似乎一度让AI产业陷入焦虑。但如今,我们的科学家用另一种方式告诉世界:没有GPU,我们照样能算;而且算得更快、更省、更聪明。

更令人期待的是,这类高精度低能耗的模拟芯片,在未来有着巨大的想象空间。比如在智能驾驶、边缘计算、无人机控制等领域,它都能发挥颠覆性的作用。过去这些系统要靠庞大的计算中心支持,现在可能一枚芯片就够。未来,也许手机就能直接运行AI大模型,AI将不再是“云端巨兽”,而是“身边助理”。

这项突破,也让人重新认识了“基础研究”的价值。我们太习惯追求快成果、快应用,却忽略了支撑科技长远发展的,是那些看似不起眼的底层创新。北大的成功,就是无数次寂寞实验、长时间数据验证、材料反复调试的结果。它告诉我们,中国科研已经从“追风口”走向“造风口”。

回看这几年,从中科院的光子计算,到清华的类脑芯片,再到北大的阻变存储器,中国高校正在形成科研创新的“矩阵”。不同路径,指向同一个目标——让AI更强、更省、更自由。有人说,这是“智造中国”的新篇章。

今天,北大的芯片不仅是一项科技成果,更是一种信号:我们不只是“追上来”,而是在“跑在前”。世界AI的下一个时代,或许就由这样的突破开启。