DC娱乐网

清华交大研发 AI 光学芯片,外媒披露速度较英伟达产品有显著提升

外媒报道,当全球科技巨头的目光,还聚焦在下一代GPU的纳米制程和散热问题上时,清华和上海交大的联合团队抛出了一个重磅成果

外媒报道,当全球科技巨头的目光,还聚焦在下一代GPU的纳米制程和散热问题上时,清华和上海交大的联合团队抛出了一个重磅成果——一款名为LightGen的光学芯片。据说在生成式AI任务里,它的速度能碾压英伟达顶级产品,足足快出100倍,能效更是拉开数百倍的差距。这款芯片的突破,真能改写当前的算力格局?英伟达垄断多年的霸主地位,会因此被动摇吗?

光子跑得比电子快

我们先从技术原理说起。现在市面上的AI芯片,不管是英伟达的GPU还是其他厂商的产品,核心逻辑都大同小异,都是靠电子在晶体管之间移动来完成计算。

就像ChatGPT这类大型模型运行时,依赖的几万张英伟达H100显卡,本质就是在不停搬运电子完成海量计算。但电子的移动速度有天然极限,哪怕是在最优的导体里,速度也远不及光。

更关键的是,电子在传输过程中必然会产生热量,电子越多、速度越快,热量就越夸张。这也是为什么大型数据中心的耗电量堪比一座小型城市,密密麻麻的散热风扇和水冷设备常年满负荷运转,光是降温就要耗费大量电力。

LightGen走的是完全不同的路子,它用光子替代电子来承担计算任务。光在真空中的传播速度能达到每秒30万公里,而且光束之间不会相互干扰,这就意味着在极小的空间里,能同时进行海量的并行计算。

这款芯片集成了超过200万个光子神经元,当光束穿过芯片内部的特制光学结构时,复杂的矩阵运算就会在光的干涉和衍射过程中自动完成。

传统芯片处理视频生成任务时,有个绕不开的麻烦,就是数据得在处理器和内存之间反复传输,这就是行业里常说的冯·诺依曼瓶颈。

而LightGen直接跳过了这个环节,光穿过芯片的瞬间,计算就已经完成。同样是生成一帧4K视频,电子芯片可能要耗费数十亿次浮点运算,既费电又耗时;光子芯片只需要一次光信号的传输与转换,能耗低到几乎可以忽略不计。

从团队发表的研究数据来看,LightGen在特定生成任务上的表现确实惊艳。处理高分辨率图像和3D场景渲染时,它的速度和能效都达到了传统GPU的百倍级别。这不是简单的性能迭代,而是从物理原理层面发起的降维打击,相当于用新的规则重新定义了算力竞争的赛道。

能耗焦虑的解药来了

速度提升只是加分项,能效比的突破才是真正的关键,也是当前AI行业最迫切的需求。现在训练一个千亿参数级别的大型语言模型,消耗的电力足够几千个普通家庭用一整年,对应的电费成本高达数百万。

更让人担忧的是,AI模型的参数还在以指数级增长,从百亿到千亿再到万亿,照这个趋势下去,能源消耗早晚会成为限制AI发展的天花板。

很多科技公司明明有更先进的模型思路,却因为算力和能耗成本太高,只能暂时搁置,这种能耗焦虑已经蔓延到整个行业。

LightGen展示的能效数据,刚好戳中了行业的痛点。执行相同的生成式AI任务,它的能耗只有传统GPU的几百分之一。

这就意味着,未来运行复杂AI模型,可能不再需要那些耗电恐怖的超大数据中心。甚至有希望把强大的生成式AI功能,直接塞进手机、智能眼镜这类对功耗极度敏感的小型设备里。

这对我们来说,战略意义不言而喻。在碳中和的大背景下,如果能通过换赛道的方式重新定义算力成本,整个数字经济的发展逻辑都可能被改写。不用再在传统硅基电子路线上死磕,反而能通过技术创新,在算力领域掌握更多主动权。

商业化还有多远的路要走

话说回来,实验室里的漂亮数据,要落地到实际应用中,还有不少难关要闯。

先从应用范围说起。目前LightGen的主攻方向是视频和图像生成这类特定任务,在这个细分领域里确实能跑出优势。

但AI计算不只有矩阵运算,还有大量的逻辑判断、条件分支这类非线性计算。在这些场景下,光子的灵活性远不如电子。所以未来的主流方案,大概率是光电混合架构——电子芯片负责处理控制逻辑,光子芯片专注于大规模并行计算,两者各司其职。

另外还有个现实问题,就是产业链和生态的搭建。英伟达的护城河从来都不只是硬件本身,更核心的是它的CUDA软件生态——全世界几十万开发者都习惯了在这个平台上写代码、做开发,市面上绝大多数AI框架、算法模型都基于CUDA优化过。

要让大家转而使用光子计算平台,就必须重新搭建一套完整的编译器、软件栈,还要让开发者重新学习适配,这个过程需要耗费大量的时间和资金。

除此之外,光子芯片在封装技术、温度控制、量产良率等方面,还有一堆工程难题要解决。比如光子器件对封装精度的要求极高,一点点偏差就可能导致光信号损耗,影响计算效果。

不可否认,中国在精密光学制造领域进步很快,但要达到台积电那样的成熟度,还需要时间积累。这些都是实打实的挑战,没有捷径可走,只能一步步慢慢攻克。

技术突破背后的战略意义

即便困难重重,LightGen的出现依然是个值得关注的信号。现在我们在高端GPU领域被卡脖子,传统的追赶思路——在硅基电子路线上不断缩小制程差距,已经变得成本越来越高,难度也越来越大。

毕竟制程越接近物理极限,研发投入就呈几何级增长,还要依赖顶级的光刻机等核心设备。而光子计算提供了一种全新的可能:不在老路上硬拼,而是开辟一条全新的赛道,用技术创新绕开现有壁垒。

如果这项技术能成功走出实验室,实现规模化量产,并且逐步搭建起完善的软件生态,带来的影响将远超一款产品本身。

这可能意味着计算范式的根本性转变,算力的衡量标准将不再是晶体管数量,而是光的波长和频率。AI的未来,或许真的会和“光”深度绑定。

换个更大的视角看,LightGen也在提醒我们,物理学的可能性还远没被穷尽,创新永远有新的方向可以探索。

在既定的规则框架之外,总有人在寻找弯道超车的机会。这场光子计算的探索究竟能走多远?或许几年后我们就能看到明确的答案。而对于被算力瓶颈困扰的行业来说,这样的技术突破,无疑是黑暗中的一束光。