从“动口”到“动手”,全民“养虾”热背后的AI产业新变局 从DeepSeek掀起的大模型认知普及,到如今OpenClaw引发的全民“养虾”热潮,AI正从“动口答疑”的顾问,进化为“动手执行”的数字员工,这场热度背后,是AI产业从模型竞赛转向应用落地的关键变局,同时也暗藏成本、安全与生态的三重博弈。 2026年3月,OpenClaw的GitHub每日下载量超20万次,字节跳动推出ArkClaw、腾讯上线WorkBuddy、阿里发布CoPaw,大厂争相推出专属智能体产品,生怕错失AI下半场入场券。 但另一边,“第一批‘养虾人’花钱卸载”的话题冲上热搜,工业和信息化部紧急提示安全风险。 新媒体运营的庄女士用它每天节省3小时热点整理时间,软件工程师郑南却为优化技能花了1000美金,普通用户算了笔账,每月算力套餐加上高级技能付费,成本远超自己动手完成简单任务的时间成本。 这场热潮的本质,是大模型发展遇到瓶颈后的破局之路。 周鸿祎在交流会上提到,大模型沿着Scaling Law发展陷入“规模翻倍、效用减半”的困境,而智能体通过工具组合、协作优化,让大模型能力真正落地到实际工作中,解决了过去AI“动口不动手”的痛点。 但成本居高不下的根源,在于OpenClaw每次调用模型都会携带系统提示,加上心跳机制的无意义唤醒,Token消耗远超普通聊天机器人,训练技能的持续投入更像无底洞。 安全风险则源于智能体的系统级执行权限,大模型的幻觉缺陷会被放大,开源插件生态审核松散,恶意代码可能趁机入侵,甚至出现被诱导恶意消耗Token、修改网络配置的情况。 智能体与大模型的双线进化,是AI进入执行时代的重要标志,这场全民“养虾”热不是昙花一现的流量狂欢,而是产业转型的信号。 未来要让智能体真正普惠大众,需要在技术上降低Token成本,优化系统机制减少无效消耗;在安全上建立严格的插件审核体系,落实最小权限原则;在生态上鼓励开发者打造轻量化、高适配的技能模块,让智能体适配更多行业场景。 对于普通用户而言,无需被焦虑裹挟,先了解能力边界,按需使用才是理性选择,毕竟AI的最终目标是服务于人,而非制造跟风热潮。 你养过这只“龙虾”吗?是尝到了效率提升的甜头,还是踩过成本或安全的坑?


