2026年,AI 革命早已走出大模型参数竞赛的上半场,进入由智能体(Agent)主导、重构整个数字世界生产与交互逻辑的深水区。
当全球超72%的软件工程师将多智能体协同作为核心开发流程。当超过半数的互联网API调用来自智能体而非人类用户,当AI已经能独立完成从实验设计、模型训练到效果验证的全流程科研闭环,我们正在告别AI作为“辅助Copilot”的时代,进入一个由智能体定义规则的新时代。
近期,AI领域顶级专家Andrej Karpathy在播客中分享的系列核心判断,揭示了当下行业演进的本质逻辑。
编程终局:人类从“写代码”到“定义生产”,Token成为新的算力标尺过去半个世纪,软件工程的核心标尺始终是人类的编码能力——对语法的掌握、对代码细节的打磨、对底层逻辑的理解。但2026年的今天,这套延续了几十年的规则,正在被智能体彻底推翻。
正如Karpathy的核心判断:软件工程的核心矛盾,已经从“人类如何实现代码”,变成了“人类如何调度智能体完成生产”。当下的行业现状正在完美印证这一判断:GitHub数据显示,2026年全球开发者提交的代码中,有68%由AI生成,头部科技企业的这一比例更是超过80%。
更关键的在于,开发者的工作流已经从“逐行写代码、改bug”,彻底转向了“任务拆解、指令优化、多智能体调度、输出质量把控”。
多智能体开发框架的爆发式增长,正是这一趋势的直接体现。2025年至今,全球范围内涌现出超过200个多智能体协同开发框架,头部框架的月活开发者突破千万。
开发者不再需要与单个AI对话,而是可以同时拉起数十个智能体,分别负责技术调研、架构设计、代码开发、单元测试、安全审计,自己只需要作为总调度官,下达宏观指令、把控核心方向。
这一变化带来的,是行业竞争标尺的彻底切换。Karpathy直言,过去读博时,GPU闲置会让他焦虑,因为FLOPs(浮点运算次数)是那个时代的核心算力标尺;而今天,开发者的焦虑来源变成了“没用完的Token额度”。
2026年,全球云厂商的Token相关收入增速已经超过了传统IaaS业务,超过40%的科技企业,年度Token预算已经超过了服务器采购预算。Token吞吐量,已经成为AI时代数字生产的核心竞争标尺。
更深刻的影响,是工程师能力模型的彻底重构。未来的优秀工程师,不再是代码写得最快、最工整的人,而是最懂如何把业务需求拆解成AI可执行的指令、最擅长调度多智能体协同、最能把控AI输出质量的人。那些只会埋头执行编码工作的开发者,正在被时代快速淘汰。
Agent-first互联网:App正在消亡,数字世界的入口与商业逻辑被彻底改写如果说编程范式的重构,是AI对数字世界生产端的颠覆,那么智能体带来的第二重革命,是对互联网消费端、乃至整个互联网底层逻辑的彻底改写。
Karpathy访谈中指出,未来,绝大多数面向消费者的App都将失去存在的意义,它们只需要对外暴露标准化的API。因为未来的核心“用户”,不再是人类,而是代表人类行事的智能体。
2026年的行业现状,正在让这个判断变成现实。过去一年,全球Top100的SaaS厂商中,有92%推出了面向智能体的专用API接口,超过60%的电商平台、本地生活服务商、智能家居品牌,完成了全量功能的API化改造。
过去被视为产品核心竞争力的UI界面、交互设计,在智能体面前变得毫无意义——人类不再需要学习十几个App的操作逻辑,只需要用自然语言向智能体表达自己的意图,剩下的一切,都由智能体调用不同产品的API完成。
这意味着,互联网的流量入口正在发生史诗级的迁移。过去二十年,互联网的入口从门户网站,到搜索引擎,再到超级App;而今天,入口正在变成自然语言对话界面,智能体成为了人类与整个数字世界交互的唯一中介。
Gartner最新预测显示,到2028年,超过70%的互联网用户行为,将由智能体代为完成,搜索引擎、应用商店的流量将出现断崖式下滑。
随之而来的,是整个互联网商业逻辑的彻底重构。过去的产品设计,核心是打磨面向人类的UI/UX,做用户增长、留存转化;而未来的产品设计,核心是打造面向智能体的标准化API,让AI可以无障碍地调用产品能力。
商业变现模式,也从面向C端的广告、会员订阅,转向面向智能体的调用量计费、效果分成。那些无法被智能体整合、拒绝开放API的产品,终将被时代彻底抛弃。
我们正在迎来一个真正的“Agent-first”互联网时代。当智能体成为人类与数字世界的唯一中介,App的生命周期就已经进入了倒计时。
未来的数字商业竞争,不再是App之间的流量争夺,而是谁能更好地被智能体调度、谁能更好地满足人类的意图表达。

如果说智能体重构编程和互联网,是当下正在发生的现实,那么AI自动化科研(AutoResearch)的闭环,则揭示了AI最具颠覆性的未来:AI可以完成从产生灵感、设计实验、迭代优化到效果验证的全流程科研工作,开始把人类从研发循环中剥离出来。
Karpathy的实验已经证明,即便是经过顶尖研究员20年经验打磨、数千次调优的模型,AI也能在一夜之间找到被人类忽略的优化点。
而2026年的行业进展,已经把这个实验从实验室推向了产业化落地。
目前,全球头部AI实验室都已经进入了“AI优化AI”的深水区。OpenAI、Anthropic的最新研究显示,通过自动化科研闭环,模型的迭代效率提升了300%,过去需要顶尖研究员团队耗时3个月完成的模型优化,现在AI只需要72小时就能完成。
AI科研的突破,早已不局限于AI自身的迭代。在数学、材料科学、生物医疗等基础科研领域,AI已经成为了核心研发力量。DeepMind的AI系统,在2026年初解决了困扰数学界数十年的拓扑学难题;全球多家药企通过AI自动化科研系统,将新药研发的周期从平均5年缩短到了18个月;材料科学领域,超过40%的新型材料研发,都有AI自动化实验的参与。
更具颠覆性的,是Karpathy提出的分布式全民科研构想。2026年,全球已经涌现出多个基于分布式算力的AI科研网络,就像当年的SETI@home、Folding@home一样,全球用户可以将自己的闲置算力接入网络,参与到癌症攻坚、气候变化、新材料研发等科研项目中。
科研的本质,是“发现成本极高,验证成本极低”,而分布式算力网络,打破了顶尖实验室的算力垄断,让科学研究迎来了真正的平权时代。
这一变化,正在彻底重构科研的底层范式。过去的科研,核心是“人类主导的循环”,研究员是整个流程的核心瓶颈;而未来的科研,人类只需要设定研究目标、明确可量化的评估指标、划定行为边界,剩下的一切,都可以交给AI无休止地自动迭代。研究员的核心价值,从“做实验的人”,变成了“定义研究方向的人”。
通用智能的幻觉:大一统模型走向终局,AI 物种分化已成必然当整个行业都在疯狂追逐更大参数、更全能的大一统通用模型时,Karpathy指出:如今最顶尖的大模型,可以写出顶尖的底层代码,可以完成复杂的科研任务,可能讲不出一个新鲜的、好笑的笑话。
这种被Karpathy称为“能力参差不齐”的现象,本质上是大一统通用模型的先天瓶颈。大模型的核心优化逻辑是强化学习,而强化学习的前提,是有明确的、可量化的奖励机制。代码写对了吗?单元测试跑通了吗?模型损失下降了吗?这些都可以量化,所以模型的能力可以飞速进化。但“笑话好不好笑”、“有没有理解用户的言外之意”、“对模糊需求的把握”,没有统一的、可量化的标准,自然也就无法被有效优化。
这个悖论,彻底击碎了“模型越大,通用能力就越强”的行业执念。我们以为,随着模型参数的提升,会“免费”获得全维度的通用智能,但现实是,模型的能力只会在被针对性优化的赛道上飞速进化,而其他领域则会陷入停滞。
2026年的行业,已经用实际行动印证了Karpathy的判断:AI的未来,不是大一统的通用模型,而是“物种分化”。
过去一年,行业已经彻底告别了参数竞赛,转向了垂直场景的深度优化。开源社区中,垂直微调的专业模型数量,已经超过了通用模型的3倍,代码、医疗、法律、数学、生物等领域的专用模型,效果已经全面超越同体量的通用模型。
闭源巨头也纷纷转向垂类布局,OpenAI推出了GPT-4o的代码专用版、医疗专用版,Anthropic发布了Claude 3的法律专用版、金融专用版。
模型物种分化的背后,是效率与成本的双重驱动。垂直专用模型,不仅可以用更小的体量、更低的算力成本,实现远超通用模型的场景效果,还能避免通用模型的能力短板。同时,端侧AI的爆发,进一步加速了模型的分化——2026年,全球端侧AI设备出货量突破20亿台,轻量化、专业化的垂直模型,成为了端侧AI的核心载体。
未来的AI生态,绝不会是一个全知全能的“通用神谕”一统天下,而是像生物界一样,无数垂直专业化的AI物种,各自占据不同的生态位,针对特定场景、特定任务完成极致优化,共同构成一个繁荣、多元的AI生态系统。
比特先于原子:AI变革的节奏差,数字世界的爆发远快于物理世界面对AI的飞速进化,行业内一直有一个误区:认为AI会同时颠覆所有行业,数字世界与物理世界会同步完成智能化改造。但Karpathy给出了清晰的判断:处理“原子”比处理“比特”要难上一百万倍,AI的变革,必然先席卷纯数字领域,再缓慢渗透到物理世界。
2026年的行业现状,完美印证了这一节奏差。目前,纯数字领域的AI渗透率已经超过65%,编程、内容创作、金融、设计、数字营销等领域,已经被AI彻底重构;而物理世界的智能化,依然处于非常早期的阶段:L4级自动驾驶的商业化落地依然局限在特定区域,通用机器人的规模化商用还没有明确的时间表,工业制造的AI渗透率不足20%。
这背后的核心逻辑,是数字世界与物理世界的本质区别。在数字世界,AI只需要处理比特,翻转、复制、传输的成本几乎为零,迭代速度可以无限加快;而在物理世界,AI需要面对真实环境的无限复杂性、传感器的误差、执行器的物理限制,每一次迭代都需要付出真实的物理成本,容错率极低,迭代速度自然会大幅放缓。
但这并不意味着物理世界没有机会。Karpathy指出,数字与物理世界的接口层,将是继纯数字领域之后,下一个核心风口。这个接口层,包括用来感知世界的传感器,以及用来改变世界的执行器。
2026年,全球已经有大量企业开始布局这个领域:多模态传感器的成本下降了90%,精度大幅提升;专为AI设计的机器人执行器,已经实现了规模化量产;数字孪生技术的成熟,让AI可以在数字世界完成模拟迭代,再落地到物理世界,大幅降低了物理世界的迭代成本。
更长远来看,智能体经济的发展,必然会从数字世界向物理世界延伸。当智能体在数字世界的任务被穷尽,必然会走向真实的物理世界,通过传感器获取新的数据,通过执行器完成真实的任务,最终形成“数字-物理”的完整闭环。只是这个过程,会比纯数字世界的革命,需要更长的时间。
对于行业参与者而言,认清这个节奏差至关重要。当下的核心机会,依然在纯数字领域的智能化重构;而未来3-5年,最大的增量机会,将出现在数字与物理的接口层;完全的物理世界智能化,依然是一个长期的命题。
计算范式革命,从互联网到AI的产业重塑面对开源与闭源的争论,Karpathy给出了清晰的判断:未来的AI生态,将是“闭源探索前沿,开源夯实基建”的双轨格局。
闭源模型将持续领跑AI的能力边界,而开源模型将成为整个行业的基础设施,就像今天的Linux一样,成为AI时代的技术平权基石。
2026年行业发展,已经印证了双轨格局。一方面,闭源模型依然领跑前沿能力,OpenAI、Anthropic等厂商,始终在通用推理、多模态理解、长上下文等前沿领域保持领先,开源模型与闭源前沿模型的能力差距,稳定在6-8个月。
另一方面,开源模型的能力正在快速追赶,Llama 3、Qwen 2、Gemini Open等开源模型的能力,已经接近2025年底的闭源模型,完全可以满足绝大多数企业级应用的需求。
更重要的是,开源模型已经成为了全球AI行业的基础设施。目前,全球超过70%的企业级AI应用,都是基于开源模型开发的;超过80%的垂直领域专用模型,都是基于开源底座微调而来。开源模型打破了少数巨头的技术垄断,让中小企业、开发者都能参与到AI革命中,极大地繁荣了整个AI生态。
而闭源模型的核心价值,在于前沿技术的探索。大模型的前沿研发,需要巨额的算力投入、顶尖的人才团队,这是开源社区难以承担的。闭源巨头通过商业化变现,支撑巨额的研发投入,不断推动AI的能力边界,而前沿能力在6-8个月后,会逐步通过开源模型普惠到整个行业,形成“前沿探索-普惠落地”的正向循环。
正如Karpathy所言,仅由少数人掌握闭源智能,存在巨大的系统性风险。开源模型的存在,构成了行业内最核心的权力制衡,避免了技术垄断,保障了AI技术的普惠性。而闭源模型的前沿探索,保证了行业的技术迭代速度。这种双轨并行的生态,是全球AI行业最健康、最可持续的发展模式。
· 结语 ·这场始于大模型爆发的AI革命,从来都不是关于AI如何取代人类,而是关于人类如何借助AI,突破自身的肉身与认知瓶颈,重构整个数字世界的生产与交互规则。
从编程范式的重构,到互联网入口的改写;从科研闭环的自我进化,到模型生态的物种分化;从数字世界的率先爆发,到开源闭源的双轨定局,我们正在见证的,是数字世界诞生以来最深刻的一次底层规则重构。
所有的变化,最终都指向同一个核心:AI正在承接所有重复性、执行性、可量化的工作,而人类的核心价值,将彻底回归到定义目标、创造价值、把控方向的本质上来。