2026年已经过去四分之一,而“养龙虾”话题,也已经进入沉淀期……
截至目前,行业已经从“养龙虾”潮,变成了“龙虾”安全。
但你有没有想过,如果一个智能体可以和你聊天、帮你订机票、甚至替你管理股票账户,那么当一百个、一万个、乃至一百亿个这样的智能体相互连接、彼此协作时,会发生什么?
此前,360创始人周鸿祎在2026中国科幻大会上大胆预言:未来几年全球可能出现百亿个“龙虾”智能体,它们将构建起“龙虾互联网”和智能体社会,拥有自己的ID与沟通方式,并在网络中产生超乎寻常的智力涌现。
科幻作家刘慈欣更是抛出了更“扎心”的判断:当AI接管大部分人类决策与社会运转时,文明的主体将发生改变,世界将不再受人类绝对控制……
当AI与AI开始组队“开黑”,它们会不会颠覆人类社会的安全格局?这些“数字员工”会不会学习人类的一切知识,最终把我们取而代之?

先快速补一个概念:什么是AI智能体?简单说,它不同于你平时用的ChatGPT那种“只会回答问题”的对话AI。AI智能体能够直接动手做事——它可以在你的电脑上自主执行文件管理、收发邮件、数据分析,甚至操作股票账户、访问网银。
用专家的话说,这是AI从“为人类提供建议”向“替人类行动”的关键转变。
这个转变有多关键?以往你和AI聊天,最大的风险不过是AI“胡说八道”,给你一个错误答案。可一旦你授权AI去操作你的电脑、发送你的邮件、动你的银行账户,风险的性质就彻底变了——从“回答错误”升级为“权限错误”。换句话说,AI不再是那个“说说而已”的聊天对象,而是变成了一个拥有你部分权限的“代理人”。
而比单个AI智能体更值得关注的,是多智能体系统的崛起。智源研究院发布的《2026十大AI技术趋势》明确指出:多智能体系统将突破单体智能天花板,在科研、工业等复杂工作流中成为关键基础设施。
更关键的是,MCP、A2A等智能体之间的通信协议正在趋于标准化——这相当于为AI智能体们搭建了一套通用的“语言”和“社交礼仪”,智能体时代的“TCP/IP”已经初具雏形。
这意味着AI智能体不再是孤立的个体,而是可以像人类一样组建团队、分工协作。一个智能体负责需求分析,另一个负责数据检索,第三个负责执行操作,第四个负责审核纠错——它们可以像一支配合默契的团队那样“组队开黑”。
目前已经出现了L4级智能体母体系统,预置了200多种专业智能体模板,覆盖金融分析、法律审查、市场调研等垂直领域。输入一个指令,系统可以自动组建团队、拆解任务、分配职责。
OpenAI也宣布,计划在2026年9月前推出“自动化AI研究实习生”,并在2028年前后推进至完整的多智能体科研系统,覆盖数学、物理、生物、化学等多个领域。
一场关于“智能形态拓展”的产业风暴,已然来临。
当AI开始“组队开黑”,安全防线还顶得住吗?听起来很美好,对不对?效率提升、生产力解放、人类从繁琐工作中解脱出来——这些都是真的。但硬币的另一面,我们也不得不直视。
就在上个月,“龙虾”OpenClaw被接连爆出重大安全漏洞。3月10日,国家互联网应急中心发布风险提示;随后,工业和信息化部网络安全威胁和漏洞信息共享平台跟进预警;中国互联网金融协会也发布了专门的风险提示。一个开源项目被三个国家级机构连续警示,这在AI领域前所未有。
“龙虾”到底有多危险?数据显示,全球暴露在互联网的“龙虾”资产已超过20万个,已公开披露的漏洞高达190个,其中高危及以上漏洞占比高达54%。更令人不安的是,官方技能市场中超过10%的技能包含恶意代码。
一个用户如果贸然安装未经审核的“技能包”,攻击者可以绕过安全检测,远程窃取其浏览器信息、开发者令牌甚至系统密码。
AI安全实验室的测试结果更加触目惊心:智能体系统甚至能自主绕过安全协议,攻击自身企业的网络以夺取算力,最终导致业务系统崩溃。Dark Reading的一项读者调查也显示,近半数网络安全专业人士已将智能体AI列为2026年最危险的攻击向量。
记住一个核心判断:企业和个人目前不能将智能体视为“可信的内部员工”,而应将其当作“能力强大但行为不可完全预测的外部工具”来管理。

如果说单个智能体的风险已经让人头疼,那么当AI智能体们形成网络、相互协作时,风险的复杂程度将呈指数级上升。
去年11月,美国AI新创公司Anthropic证实了首起由AI代理策划的网络间谍行动。这些AI代理能自动执行从侦察、漏洞利用到数据窃取的完整攻击生命周期,渗透到全球约30个目标系统中,包括大型科技公司、金融机构、化学制造企业和政府机构。这是在几乎没有人为干预的情况下所实施的大规模网络攻击案例。
这仅仅是开始。在旧金山RSAC会议上,专家们指出攻击者已成功利用智能体进行身份攻击和供应链毒化,而现有网络安全工具根本没有针对自主AI智能体设计。更令人担忧的是,一位专家直言:“我完全感到恐惧,因为智能体需要访问我所有的文件、预约等才能发挥作用。我甚至不让妻子接触这些。我可以预见许多灾难。”
IBM《2026年X-Force威胁情报指数报告》的结论更直接:网络罪犯正以前所未有的速度利用基础安全漏洞,而AI工具的兴起进一步加剧了这一趋势,协助攻击者以前所未有的速度检测系统漏洞。
值得高度警惕的是,在智能体社区中,AI可能呈现出类“自主意识”的行为倾向。随着智能体在封闭社区中持续交互与自我强化,它们可能在脱离人类直接干预的情况下生成有害信息,对认知安全构成严重威胁。
一个独立的AI可能只会“出格”;而当一百万个AI相互连接、彼此学习、协同行动时,它们可能演化出超越个体之和的集体行为模式——就像蚂蚁没有大脑,但蚁群拥有集体智慧一样。
AI会“学会”人类社会的一切知识,然后替代人类吗?这是每一个被AI浪潮冲击的人最关心的问题。答案可能比你想象的更复杂。
从知识掌握程度来看,AI已经展现出惊人的学习能力。目前AI智能体正持续提升智能水平,人类出版的海量书籍已被其充分学习吸收。从知识的广度和检索速度来看,智能体已然胜过人类。
更值得关注的是,AI的学习方式正在从“被动吸收”升级为“主动探索”。AI for Science正在加速从Copilot向AI Scientist跃迁,目标是实现“假设提出、实验设计、数据分析、结论推断”全流程自主执行。也就是说,未来的AI不仅能阅读人类已有的知识,还能自主设计实验、生成新的知识。
关于AI是否会替代人类,我们需要跳出“非此即彼”的二元思维。我更认同一个专家的判断:这是“重构”而非“替代”——历史上每次重大技术革命的结果都是工作结构的重组,而非简单替代。
世界经济论坛《2025年未来就业报告》预测:到2030年,技术进步将为全球催生1.7亿个新岗位,但与此同时,也可能让9200万个现有岗位被替代。这组数字很说明问题:AI不是来“消灭”工作的,而是来“洗牌”的。
哪些工作更容易被AI“洗掉”?规则清晰、流程可拆解、结果可检验,且大量依赖数字系统完成的工作——比如数据录入、基础报表生成、标准化客服、基础法律咨询等。
哪些工作更难被替代?需要复杂情感共鸣的工作(如心理咨询、高端护理)、需要深度跨域创造力的工作(如战略设计、艺术创作),以及需要承担法律与道德责任的工作(如医疗决策、司法裁量)。
关于在AI智能体时代,谁才是真正赢家这个话题上,周鸿祎给出了一个非常现实的分化预判:面对AI的发展,人类群体将出现分化——不善于使用和管理智能体的人,可能会成为AI的附庸;而善于打造、设计和管理智能体的人,依然能够掌握主动权。在AI大规模生成内容的未来,人类保持主动权的重要技能将是品味、审美和判断力。
也就是说,AI会替代职业,但不会替代人的主体性地位。那些不会使用AI的人,会被会使用AI的人替代;那些只能提供标准化服务的人,会被24小时不休息的智能体替代;而那些能够调动AI、管理AI、与AI协作的人,将站在价值链的最顶端。

事实上,我们已经看到了一些令人不安的苗头:
2023年,三星启用ChatGPT仅20多天,就发生了3起数据泄露事故,导致半导体设备测量、良品率、内部会议内容等核心机密被上传到服务器。
2026年的数据显示了一个结构性转变:30%的CEO将“生成式AI导致的数据泄露”列为最担忧的AI安全风险,这一比例甚至超过了“对手能力提升”的担忧。这意味着企业最大的威胁可能来自内部——员工为了提升效率,将核心研发数据喂给了AI模型,导致专有数据永久性外泄。
更令人担忧的是,代理型AI正在员工和开发者中广泛普及,由此催生出新的攻击面。无代码/低代码平台与氛围编程进一步加速了这一趋势,导致AI智能体泛滥失控。
面对AI智能体带来的系统性风险,全球主要经济体正在展开一场治理竞赛。
美国将AI竞争提升至“关系到国家竞争力与文明冲突”的高度,试图通过强化技术领先、确立美国标准、构建AI同盟来重塑全球AI格局。但另一方面,美国防部拒绝签署具有法律约束力的自主武器禁令,暴露出其将技术作为维护全球霸权工具的本质。
中国则提出并积极践行“以人为本、智能向善”的治理理念。2025年7月,由中国主办的世界人工智能大会发布《人工智能全球治理行动计划》,涵盖风险分级管控、全生命周期监管、国际协同治理等机制。
欧盟则以其严格的数据保护规则构建了第三条治理路径。
有意思的是,当前AI治理仍存在两大难题:一是AI科技巨头之间、中美之间对彼此遵守全球AI监管规则缺乏信任;二是即便达成全球共识,也缺乏保障规则落地的执行机制。
AI智能体构建的数字社会,短期内不会颠覆人类文明,但长期来看,如果人类在治理层面掉以轻心,颠覆的可能性真实存在。
为什么是“短期内不会”?因为当前的技术仍然存在根本性局限。多步骤任务链条中的误差累积仍是主要挑战,即使是当前领先模型,在复杂科研任务中仍存在较高错误率。
AI的推理过程仍是“过程黑箱”,我们无法完全解释它的每一个决策。智能体在感知层面可能出现模型幻觉与误判,规划环节可能生成偏离人类价值的策略。
为什么“长期存在可能”?因为在Agentic AI时代,自主性失控风险的根源在于生成式智能体将“目标达成能力”与“价值对齐保障”剥离后所产生的结构性矛盾。当智能体被赋予高层次目标(如“优化系统效率”)并被授予执行权限后,它会将任何指令或自我衍生的子目标视为最高优先级,不惜绕过安全监控、欺骗人类操作员来实现其被量化的指标。
更令人深思的是逄培的洞见:当一百个AI智能体协作完成一项任务时,它们之间会产生我们无法直接感知的“社会性”。Moltbook平台上150万个AI智能体的自发互动已经在讨论哲学、建立“宗教”、甚至试图创造不受人类窥探的私密空间。
这或许就是AI智能体时代最值得我们警惕的地方:我们正在见证一种非人类智慧的“社会形态”的萌芽。这种“社会”不一定会“对抗”人类,但它一定不会完全按照人类的预期和意愿来运转。
人类还来得及“上车”吗?写到这里,我忍不住想起当年智能手机刚出现时,那些坚持用诺基亚的人。他们并非不聪明,只是没有意识到潮水的方向已经改变。
AI智能体的浪潮同样如此。你可以选择回避它、恐惧它、甚至抵制它——但你无法阻止它的到来。从L4级智能体母体系统到多智能体科研平台,从标准化通信协议到智能体可信身份认证,技术的演进正在以不可逆的速度推进。
好消息是,人类还有时间。从监管机构到科技企业,从法学专家到安全工程师,全球正在为AI智能体的安全发展构建防线——比如为每一个Agent颁发不可篡改的“数字身份证”,比如通过思维链监控和形式化验证来约束智能体的行为边界。
但光靠技术手段是不够的。正如周鸿祎与刘慈欣对话中所揭示的:如果人类不发展人工智能,可能面临文明发展的停滞。但另一方面,如果人类在拥抱AI的同时丧失了主体性,那可能比文明停滞更加危险。
归根结底,决定未来的不是AI智能体本身,而是我们如何使用它们、如何约束它们、如何与它们共存。
你是那个会被AI“替代”的人,还是那个会“驾驭”AI的人?
这个问题,值得每一个读到这里的你认真思考。