2026年3月5日,十四届全国人大四次会议在人民大会堂开幕,国务院总理李强向大会作政府工作报告。《政府工作报告》中明确提出,“支持人工智能开源社区建设,促进开源生态繁荣”,中国开源史册上悄然翻开了新的一页。这是“开源”首次以如此清晰、独立的位置出现在国家最高级别的政策文件中。它不是被淹没在“技术创新”的泛泛表述里,而是与“人工智能+”并列,与“智算集群”协同,成为驱动智能未来的关键引擎之一,这一刻,意义非凡!
回望过去二十年,开源在中国经历了从“引进消化”到“局部贡献”的漫长征途。Linux服务器支撑了互联网的崛起,Android打开了移动时代的大门,而深度学习框架的开源则让中国AI企业得以站在巨人的肩膀上快速奔跑。但这一次,情况发生了根本性的变化——开源不再仅仅是“免费的工具”或“社区的爱好”,它被正式确认为国家人工智能战略的有机组成部分,是培育产业生态、掌握技术话语权、构建可持续创新能力的“基础设施”。
一、开源驱动——创新引擎的跃迁如果说“人工智能+”是一场产业变革的浪潮,那么开源就是推动这浪潮奔涌向前的底层洋流,它不总是浮在水面被看见,却决定着技术扩散的速度、协同创新的深度和商业转化的效率。
技术扩散的加速器报告提出要“深化拓展‘人工智能+’,促进新一代智能终端和智能体加快推广”。这一目标的实现,离不开开源在技术扩散中的核心作用。回顾人工智能发展史,每一次技术浪潮的普及都与开源密不可分,深度学习框架(如PyTorch、TensorFlow)的开源,使得全球数百万开发者能够站在同一技术基座上构建应用,大幅缩短了从算法论文到产品落地的周期。
如今,大模型的开源浪潮进一步降低了基座模型的获取门槛——Meta的Llama系列、阿里的通义千问Qwen等开源模型,让行业应用开发者可以聚焦于垂直场景的微调和优化,而非从零开始“重新发明轮子”。在开源生态的滋养下,“新一代智能终端”不再只是硬件的迭代,而是软件定义的智能体。智能汽车、服务机器人、工业边缘设备,都可以通过开源操作系统和AI框架快速获得感知、决策能力。这种技术扩散的“乘数效应”,正是“人工智能+”能够渗透到千行百业的基础。
协同创新的孵化器“推动重点行业领域人工智能商业化规模化应用,培育智能原生新业态新模式”——报告的这句话揭示了智能经济的核心:创新不再是单一企业的闭门造车,而是生态系统的协同进化。
开源社区正是这种协同创新的最佳载体。它汇聚了企业、高校、科研机构和个人开发者的“众智”,形成超越单一组织边界的创新网络。一个典型的例子是Hugging Face社区,数万个预训练模型和数据集在那里共享,开发者可以基于已有成果快速实验,而社区的反馈又反过来推动原项目的迭代。这种分布式协作模式,让创新从“线性推进”变为“网络爆发”。
商业闭环的试验场开源不等于免费,而是“免费+增值”新商业模式的起点。报告强调“推动商业化规模化应用”,而开源恰好为企业提供了一条低成本试错的路径——在投入重金之前,先用开源工具验证技术可行性和市场需求。
成功的开源项目往往遵循“漏斗模型”:通过开源吸引海量用户,建立起品牌认知和社区信任;再通过企业级支持、云服务、定制开发等增值服务实现可持续运营。Red Hat、MongoDB、Databricks等国际开源巨头的成长轨迹,已经验证了这种模式的可行性。在国内,越来越多的AI公司开始探索“开源核心模型+闭源企业服务”的双轨策略,形成“开源-商业化-反哺开源”的正向飞轮。
二、开源筑基——基础设施的软实力当我们谈论智算集群、算力调度、数据要素时,往往关注的是硬件投入和政策设计,却容易忽略一个关键问题:这些“硬实力”靠什么来激活?答案恰恰是开源——它是连接算力基础设施与数据要素市场的“软件血脉”,让投入转化为生产力,让资源转化为资产。
算力基础设施的“软件定义”报告部署了多项新基建工程:“实施超大规模智算集群、算电协同等新基建工程,加强全国一体化算力监测调度,支持公共云发展。”这些硬投入要真正转化为智能生产力,离不开开源软件栈的支撑。
“超大规模智算集群”的效能发挥,不仅取决于芯片和互联硬件的性能,更依赖于从分布式训练框架、模型并行策略到推理优化引擎的整套软件体系。PyTorch、TensorFlow、MindSpore等开源框架,决定了算力利用率的上限;而DeepSpeed、Megatron等开源优化库,则让千亿级模型的训练成为可能。
“全国一体化算力监测调度”需要开放、标准的协议和接口。在云原生领域,Kubernetes已成为异构算力资源统一调度的“事实标准”;而Volcano、YuniKorn等开源项目,进一步针对AI批处理任务做了优化。这些开源技术,正在为“算电协同”等新型基础设施提供可扩展的软件基础。
“支持公共云发展”与开源生态共生共荣。公共云本身就是开源技术的集大成者——容器、微服务、DevOps等云原生技术几乎全部开源。公共云厂商一方面通过开源技术提供弹性服务,另一方面也积极向社区回馈代码,形成良性循环。
数据要素的“开源式流通”报告强调“深化数据资源开发利用,健全数据要素基础制度,建设高质量数据集”。数据是AI的“燃料”,但“数据孤岛”和产权模糊长期制约着数据价值的释放。开源模式为解决这一难题提供了新思路。
首先,“建设高质量数据集”需要开放共享机制。可以借鉴开源社区的版本管理、质量控制、许可证约定,鼓励科研机构和企业发布开源数据集,让数据在明确授权下有序流通。国际上已有Open Images、Common Crawl等大型开源数据集,国内也需培育类似的公共数据资源池。
其次,数据预处理、清洗、标注、隐私计算等工具的开源,能够降低中小企业开发利用数据的门槛。例如,联邦学习开源框架(如FATE)允许各方在不交换原始数据的前提下联合训练模型,为数据要素的市场化配置提供了技术前提。
最后,在探索“数据要素基础制度”时,可以借鉴开源软件许可模式的治理智慧。GPL、Apache、MIT等许可证不仅界定了代码的使用边界,还构建了“使用即同意”的契约体系。未来,或可设计适应数据特性的“数据共用”协议,在保护隐私和知识产权的同时,释放数据的复用价值。
三、开源治理——从社区到国家的规则演进技术的繁荣往往伴随着治理的挑战。当人工智能以前所未有的速度渗透到经济社会各领域,如何确保其安全、可信、可控,成为必须回答的时代命题。而开源社区数十年的治理实践,恰好为“完善人工智能治理”提供了一面镜子。
透明性与可问责性报告提出要“完善人工智能治理”。在AI系统日益复杂的今天,治理的基础在于可理解、可追溯。而开源代码的公开可审计性,天然契合这一要求。
当模型的架构、训练数据、推理逻辑以开源形式呈现时,第三方可以验证其公平性、安全性和可解释性。这正是“算法透明”的最佳实践——不是简单披露公式,而是让整个系统接受公众的检验。此外,开源社区的协作记录(代码提交、问题讨论、决策过程)形成了可追溯的“技术档案”,为AI系统的全生命周期管理提供了基础设施。
安全性与供应链韧性开源社区通过众测众包模式发现和修复漏洞,其安全性在某种程度上优于闭门造车。但Log4j等安全事件也警示我们:开源并非天然安全,依赖关系复杂、维护者精力有限等问题可能引入风险。因此,软件物料清单(SBOM)正在成为开源治理的标配,帮助企业清晰掌握所用开源组件的来源和漏洞情况。
国家层面需要构建开源安全监测和应急响应机制,在鼓励使用开源的同时,防范关键信息基础设施对不可控开源项目的过度依赖。这并非封闭自守,而是建立“自主可控”与“开放合作”的平衡点——通过参与国际社区贡献、培育本土核心项目,在保障技术主权的同时保持生态活力。
伦理共识与多元参与AI伦理问题(偏见、隐私、滥用)不能仅靠少数专家解决,需要广泛的社会对话。开源社区天然汇聚了不同背景的参与者(开发者、企业、研究者、用户),其围绕伦理议题的讨论和共识,可以为更广泛的社会治理提供基础。
实践中,一些开源项目已开始尝试嵌入伦理检查点、伦理声明模板,将抽象的伦理原则转化为开发者可执行的技术规范。未来,AI治理规则的落地,也需要转化为这样的“硬实践”——而开源社区正是最好的试验田。
四、展望:迈向繁荣引领的开源新时代站在2026年这个政策节点上眺望,中国开源生态正站在从“规模扩张”到“质量跃升”、从“应用跟随”到“根社区引领”的十字路口,开发者数量全球领先,开源项目数量快速增长,头部企业在国际开源社区的话语权不断提升,开源理念从技术圈渗透至更广泛的产业界,但这只是起点。
开源,正在从一种代码协作方式,升维为一种知识生产制度、一种信任构建机制、一种文明演进模式。
当智算集群的轰鸣需要开源软件来指挥,当海量数据要素需要开源协议来流通,当千行百业的智能化需要开源模型来赋能,我们愈发清晰地看到:开源不仅是技术的选择,更是通往开放、协作、可持续未来的必由之路。天工开物开源基金会正在努力,成为这条道路上坚实的铺路石——连接学术界与产业界,贯通国内与国际,让开源的种子在政策的沃土中生根发芽,终将长成支撑智能时代的参天大树。
这个写入国家战略的“开源时刻”,终将被历史记住。而此刻的我们,既是见证者,更应是参与者。让我们共同投身这场由开源驱动的智能革命,去创造一个更具活力、更加包容、更可信赖的未来。