DC娱乐网

上市,也解不了国产芯片厂商的“近渴”

作者 | 常棣编辑 | 葛覃2025年12月份,上市不到一周的摩尔线程宣布,计划使用最高不超过75亿元的闲置募集资金进行

作者 | 常棣

编辑 | 葛覃

2025年12月份,上市不到一周的摩尔线程宣布,计划使用最高不超过75亿元的闲置募集资金进行现金管理,旋即引起热议,“本以为是撑起科技梦想,实际上是别人拿着你免费送的钱去存银行。”

市场可能误解摩尔线程了。并不是摩尔线程想做理财,相反地,摩尔线程可能是中国最懂GPU的厂商之一,首届MUSA大会就办给开发者,因为他们清楚地知道,接下来芯片行业应该做什么。

芯片行业的一个老问题,也是国产芯片厂商当下的急迫事项——不论是算力提供方还是企业使用方,当国产算力基础设施逐步铺开之后,行业真正面临的痛点,已经从“有没有算力”转向“算力怎么被用好”,尤其是在 AI、图形计算、高性能计算等负载高度复杂的场景中。

单点突破难以奏效,国产算力想要释放价值,必须依赖软硬件一体化的系统工程能力。GPU 的生态,本质上是一个研发生态,让懂硬件的人看到软件的真实需求,也让做软件的人理解硬件的“脾气”。

这条路很难,但这就是国产算力走向成熟的必经之路。

“有算力”和“好算力”之间,有一道鸿沟

算力不再只是芯片和晶体管,而是一个跨越芯片、软件、框架和系统的协同问题,这在大模型时代愈发显化。

硅基流动创始人&CEO袁进辉表示,芯片本身非常复杂,应用场景也高度多样。为了让更多人用起来,我们不得不通过一层一层的软件抽象,把底层的复杂性隐藏掉,让用户可以“傻瓜式”地使用芯片。

但问题在于,每一层抽象,都会丢掉一部分信息。不同的工作负载——AI、图形、科学计算——对芯片的使用方式完全不同,而这些差异,在抽象过程中往往被抹平了。

实际使用中,往往是这样一个过程:开发者先在高层抽象中工作,发现不够用,再一层一层往下找工具箱,直到触及芯片本身。这种“从上到下再从下到上”的反复,本身就非常复杂。

“这不是某一家芯片公司的问题,而是芯片、软件和基础设施企业需要共同面对的挑战。”袁进辉说。

正如袁进辉所言,制约因素不是单点,而是多点叠加。首先是“绝对算力”。绝对算力再多,如果不能在真实训练中转化成有效算力,其实没有意义。CUDA 能做得这么好,很重要的一点是,有大量系统和开发者在不断把硬件价值榨干。

第二是生态问题。目前大模型生态仍然高度集中在 CUDA 上,国产算力首先要解决迁移适配的问题。智源在做 FlagOS,就是希望把迁移成本尽可能降低。

“迁移本身不是终点。我们不能永远停留在“迁移”,还需要在国产原生环境下做一些事情。这里面一方面是信心,另一方面是产品质量和长期一致性。”北京智源人工智能研究院AI框架研发负责人敖玉龙表示。

商汤科技联合创始人王晓刚也提到,今天国产芯片可能面临或要解决的最大问题是生态问题,软件生态。

英伟达应该超过一半是软件工程师,CUDA有生态。今天单纯看算力指标都非常好,几百T的算力,追赶比较快。但要把算力转换为实际计算结果和效率,就存在模型适配问题。现在AI发展,新模型层出不穷,大家都想领先。有了模型后,如果花几个月时间进行新模型适配,开发者是等不及的。

榨干国产算力的路径

系统问题需要系统解法,不同领域的厂商都在做出自己的贡献。

从芯片公司的角度来看,每一代芯片其实都有很多独特的设计,如果抽象层太厚,这些特性很容易被掩盖。如何构建软硬件接口,让开发者感知并使用这些能力,把隐藏的 30% 甚至 50% 性能释放出来,是芯片厂商需要考虑的问题。

摩尔线程联合创始人、首席技术官张钰勃提到,在设计 MUSA 软件栈时,摩尔线程一开始就在思考两个问题:第一,GPU 平台要“好用”;第二,只好用还不够,还要“用得好”。

这两件事其实是有冲突的。如果把平台做得非常标准化,完全对齐主流生态,开发者很容易上手,但硬件的差异化能力就很难体现。

所以摩尔线程采取的策略是:先在使用习惯上对齐主流生态,尽量降低学习和迁移成本;在这个基础上,再通过更高阶的编程抽象,把底层创新释放出来。

比如通过 Triton、DSL 等方式,把某些对算力利用率高度敏感的能力暴露出来。同时,这件事也不可能只靠一家厂商完成,摩尔线程需要和像硅基流动这样的系统平台一起做深度协同。

大模型规模走向长序列和稀疏的十万亿级,模型结构走向非规则化,训推范式走向异构化,模型发展驱动AI基础设施从“服务器集群时代”迈入“超节点时代”。

这背后的含义是,即便单个芯片有效算力不足,那么在增加单芯片算力的同时,大幅提高芯片的并行计算效率,也不失为中国特色的算力之路。

华为是其中的代表厂商,并且带动国产算力产业链投入其中,目前超节点已经成为国产厂商必研的方向,以AI框架昇思MindSpore为例,明确提出要打造超节点亲和、全场景融合、架构开放、敏捷使能的人工智能框架。

昇思MindSpore开源社区理事长王紫东表示,未来超节点的卡会变得越来越多,互联变得越来越快,MindSpore就要解决资源利用率的问题。

“超节点的并行技术,可以让大家像在一台计算机上编程一样,但实际上操控的是一个庞大的超节点集群。这里面,就有很多具体的技术,简单来说,这么多卡之间数据的传递,什么时候用什么数据,都是由AI框架MindSpore完成统一编排”他说。

清华大学长聘教授、高性能计算所所长翟季冬也表示,万卡集群本身就是一个高度复杂的系统。它不仅包括计算,还包括通信、存储、控制等多个模块。目前来看,这些模块之间的整合效率仍然不足。

要真正做好大规模 AI 训练和推理平台,系统软件会变得非常关键。如何通过软件把不同器件有效整合起来,是下一步能否继续扩展的重要前提。

国产算力,不必非追求替代英伟达

英伟达的声势太盛,以至于国产算力很容易讲同一个叙事——“对标英伟达”“替代英伟达”,几乎成了一种最高级别的评价。

也正因如此,中国的AI芯片厂商,正在全力拉近与英伟达之间的距离。但在这一过程中,真正需要警惕的,并不是差距本身,而是路径选择是否会走偏。

所谓“替代英伟达”,并不意味着在短时间内,用国产芯片全面取代英伟达的产品体系。更现实、也更健康的路线,是从推理等更适配、成本更友好的应用场景入手,让国产AI芯片先“用得上”,再逐步“用得好”,最终形成可持续演进的算力。

在相当长一段时间内,国产芯片难免背负以性能换安全的标签,其采购行为也容易被理解为一种带有政策意味的“额外成本”。但如果国产AI芯片的角色长期停留在“国产化替代”或“安全兜底”,就无法支撑一个体量以万亿计的产业愿景。

真正可行的进化路径,应该是:先为安全价值买单,再逐步体现商业性价比,最终成长为承载创新的平台型基础设施。

王晓刚指出,以前市场上比较多的是英伟达GPU,已经做了很好适配,开发出来的模型自然跟英伟达芯片适配好。

“今天其他芯片要花时间适配,所以接下来开源生态会变得非常重要。开源后才有更多社区的人使用模型,模型跟哪个芯片适配得好,哪个芯片使用起来就更方便。将来开源也是推动国产AI发展自主可控非常重要的方面。”

也有业内专家表示,生态真正走向繁荣,从来不可能依赖单一技术路线。无论是算法还是系统层面的创新,都很难由某一个主体独立完成,因此对主流生态的兼容,本身就是一种务实而必要的选择。

面向未来,一方面要把已有的最先进模型真正跑顺、跑好;另一方面,也需要探索是否能够基于国产芯片的特性,原生设计出新的模型形态。很多芯片能力的释放,并非源自厂商的预设,而是在开发者不断“试用、折腾、重构”的过程中被激发出来的。

归根结底,芯片设计仍需回到应用本身,用真实且持续演进的需求来牵引技术创新。正因如此,坚持开源、开放与兼容,尽可能向生态伙伴暴露底层架构能力,才有可能孕育出健康而持久的生态体系——因为任何一个成熟的生态,都不可能只是某一家公司的独角戏。

因判断国产AI芯片是否成功,并不应只看参数是否追平、替代比例是否提高,而在于它是否显著降低了应用创新和用户获取的边际成本,是否让足够多的开发者能够把精力集中在商业模式和用户体验的极致打磨上。

我们真正追求的,并不是复制出多少个“中国版英伟达”,而是让算力的成本低到足以催生一批世界级、且难以被外部简单复刻的AI原生应用。