在2026年达沃斯论坛上,谷歌DeepMind CEO德米斯·哈萨比斯与Anthropic CEO达里奥·阿莫迪再度同台,聚焦行业关注的热点话题:我们离真正的AGI还有多远?
这场辩论的特别之处在于,两位AI“大佬”代表了当今AI领域最主流且对立的两种发展观。
一方是“渐进论者”哈萨比斯,相信科学创造力是AI难以逾越的鸿沟;另一方是“奇点逼近论者”阿莫迪,认为AI自我改进的闭环即将触发技术发展的奇点。
他们的分歧不仅仅是时间预测的差异,更是对AI本质、发展路径和风险认知的根本不同。

阿莫迪坚持AGI将在未来一两年内实现突破,基于一个他观察到的关键现象:AI编程能力正达到“临界质量”。
他表示,在Anthropic内部,工程师们已经开始说“我再也不亲手写代码了”。当AI不仅能编写代码,还能开发更先进的AI系统时,就形成了一个自我强化的正反馈循环。
这种“AI构建AI”的循环一旦形成,技术进步的速度将不再是线性增长,而可能呈现指数级跃升。
阿莫迪预测,距离AI能够端到端完成软件工程师大部分工作,可能只有六个月到一年的时间。这种能力将迅速扩散到其他研究领域,形成连锁反应。
然而哈萨比斯对此持保留态度。他承认编程和数学领域可能实现自动化闭环,但强调自然科学的验证周期是AI难以绕过的高墙。“你无法立即判断合成的化合物是否有效,或者对物理现象的预测是否准确,”他指出,“这需要通过实验验证,会拉长周期。”
更重要的是,哈萨比斯认为当前AI缺乏“提出问题和构建理论假说”的能力,而这正是科学创造力的核心。在他看来,从数据中识别模式与从零到一提出全新科学假设之间,存在着本质区别。
两种观点的对立,反映了AI研究中的根本问题:人类智能中哪些部分是可通过数据驱动方法实现的,哪些需要根本性的突破?
行业洗牌:为什么独立AI公司正在挑战科技巨头?
过去一年,AI领域的竞争格局发生了出人意料的变化。从DeepSeek引发行业震动,到谷歌发布“红色代码”重新聚焦,再到独立AI公司展现惊人增长——权力结构正在经历剧烈调整。
哈萨比斯坦言,让谷歌这样的科技巨头重拾创业公司般的敏捷性并非易事。“这确实付出了巨大努力,”他说“关键是重新整合所有资源,让整个组织重新焕发活力与专注度。”Gemini 3模型的推出标志着这一转型初见成效,但前路依然漫长。
而真正令人惊讶的是阿莫迪领导的Anthropic所展现的增长曲线:从2023年的1亿美元营收到2024年的10亿美元,再到预计2025年的100亿美元。这种指数级增长挑战了行业对独立AI公司生存能力的普遍怀疑。
阿莫迪揭示了背后的逻辑:“计算量与认知能力之间存在指数级关系,认知能力与创收能力之间也存在这种惊人的指数级关联。” 这一观察暗示,AI能力突破可能带来非线性商业价值增长。
更值得思考的是他对公司类型的判断:“公司或核心研究部门都是由研究人员领导的……这类公司才是未来的赢家。”
这句话看似平淡,实则剑指整个行业的竞争逻辑——未来的AI竞赛可能不再是资本或数据的竞争,而是顶尖研究人才与科学问题解决能力的竞争。
白领工作的重构:线性职业路径的终结关于AI对就业影响的讨论,哈萨比斯和阿莫迪都超越了简单的“替代论”,指向了劳动力市场更深层的结构性转变。
哈萨比斯提出了一个实用而前瞻的建议:“如果我现在建议本科生,我会告诉他们要精通这些工具。利用这些工具实现职业生涯的‘跳跃式发展’,可能比传统的实习更有价值。”
这一建议反映了AI时代职业发展逻辑的根本变化——从传统的线性积累模式转向基技术杠杆的非线性成长模式。
当AI能够完成越来越多常规认知任务时,人类工作者的核心价值不再仅仅取决于专业知识存量,而更取决于与AI系统的协作能力和创造性问题定义能力。
这种转变要求教育体系和职业培训机制进行根本性重构。
阿莫迪则关注宏观经济层面的适应性问题:“随着指数级增长的不断叠加——同样是一到五年内,这种变化将超出我们的适应能力。”
他的担忧在于社会经济系统调整的速度极限。即使理论上能够创造新工作岗位,实际转型过程中可能出现的大规模摩擦性失业和社会不稳定仍不容忽视。
值得注意的是,阿莫迪访谈中透露即使在Anthropic内部,“也预见到初中级岗位需求会减少,我们正在思考如何明智地应对”。这意味着,AI的创造者也无法豁免于自己创造的技术变革。
访谈中,两者更是批评了现有制度对即将到来的变革准备不足。哈萨比斯指出:“即使是经济学家——甚至是专业的教授——似乎也没有在深入思考即将发生什么。”
这种专业知识滞后于技术现实的现象,可能使社会在面对AI引发的就业市场冲击时处于被动应对而非主动引导的位置。
智能闭环:技术加速的“物理限速”关于AI能否实现完全自我改进的“智能闭环”,哈萨比斯表示:“我认为是有可能的,但在某些领域可能需要真正的通用人工智能(AGI)才能做到。”
他进一步区分了不同领域的难度差异:“因为在很多领域验证答案极其困难这会带来混乱。此外,一旦涉及物理AI、机器人等硬件循环,系统的自我进化速度就会受到物理限制。”
这种区分揭示了AGI发展面临的双重挑战:认知层面的复杂性和物理层面的约束。
在纯粹的数字领域,如编程和数学,智能系统确实可能实现快速迭代和自我改进;但在涉及现实世界互动的领域,进步速度受限于物理实验周期、材料特性和制造能力。
哈萨比斯访谈中提出的“硬验证问题”概念值得更深入思考。
比如对于某些复杂系统——无论是气候模型、生物进化还是社会经济动态——即使AI能够提出理论或解决方案,验证这些方案的正确性和安全性本身可能就是一个极其困难且耗时的过程。
这种验证瓶颈可能成为AGI能力扩展的重要制约因素。
与此相对,阿莫迪则更关注闭环形成的实际速度而非理论可能性:“接下来最值得关注的是‘AI构建AI’的进展。这个方向的发展速度,将决定我们是还有几年时间从容准备,还是即将面临一个必须即刻应对的巨大奇迹与紧急状况。”
他将焦点放在工程实现的加速度上,相信一旦关键技术突破,进步将是不可阻挡且难以预测的。这种观点强调技术发展的非连续性和指数特性,认为历史经验不足以预测AGI的出现轨迹。
这两种视角的根本差异在于对“智能”本质的不同理解:是一种可以无限扩展和加速的技术能力,还是一种本质上受到复杂系统规律约束的涌现现象?
这个问题的答案可能决定了AGI究竟是会突然“降临”,还是渐进地“演化”。
结语哈萨比斯与阿莫迪在达沃斯的这场辩论中,或许没有简单的对错,只有不同视角下的可能性评估。
阿莫迪的时间表代表了一种信念:技术进步有其内在的加速逻辑,一旦突破关键阈值,发展将势不可挡。
哈萨比斯的审慎则提醒我们:智能的某些维度可能比我们想象的更为复杂,而社会的吸收能力有其天然限制。
真正的挑战或许不在于预测AGI何时到来,而在于构建一个既能推动前沿探索又能保障社会平稳的治理框架。当技术发展的速度不断加快,人类是否能够以同样的速度,发展出驾驭这些技术的智慧?