DC娱乐网

算力KPI时代,打工人正在用数据“喂养”自己的替代者

当“烧Token”成为KPI,你的每一行代码都在替AI写自己的“葬礼致辞”。一块H100显卡,2023年出厂价约2.5万

当“烧Token”成为KPI,你的每一行代码都在替AI写自己的“葬礼致辞”。

一块H100显卡,2023年出厂价约2.5万美元。三年过去,它没有贬值——反而更值钱了。

英伟达CEO黄仁勋在GTC 2026大会上放出豪言:截至2027年底,面向Blackwell与Vera Rubin两大架构的AI算力产品,将迎来至少1万亿美元的高确信度需求。

全球云厂商、企业级客户与行业应用端对AI算力的采购意愿持续超预期。根据国金证券、中信建投等多家券商研报数据,2026年全球算力基础设施投资规模预计突破6000亿美元,同比增长超40%。

中国信通院测算数据显示,2025年我国人工智能核心产业规模达1.8万亿元人民币,算力核心产业规模超5万亿元人民币,算力需求年均增速维持在50%以上。

AI算力,已经成为数字时代的“新石油”。全球正在掀起一场万亿美元的算力军备竞赛。

但对于你我这样的普通职场打工人来说,这场盛宴的背后,却隐藏着一场无声的“狩猎”。

从2025年开始,国内外互联网大厂已经从“鼓励使用AI”进入了“隐性强制使用AI”的阶段。有人被统计每天消耗了多少Token,有人所在团队把AI使用情况和绩效挂钩,有人被要求优先使用公司自研工具,有人则要把自己的工作经验和思路拆成流程、写成Skills,交给AI反复调用。

更令人细思极恐的是:你使用AI留下的每一次对话、每一行代码、每一个决策逻辑,都在悄然成为训练AI的“养料”。当AI学会了你的工作方式,当你的经验被系统拆解、沉淀、复用,那个最终取代你岗位的“数字员工”,恰恰是由你亲手“喂养”出来的。

这听起来像是一部赛博朋克小说的情节,但它正在真实地发生。

算力狂飙,一场全球万亿美元竞赛

AI到底有多“吃算力”?一组数据足以说明问题。

根据仲量联行JLL的2025年展望,全球数据中心容量预计将从目前的约103吉瓦近乎翻倍至2030年的200吉瓦,AI驱动了其中的大部分需求。AI工作负载预计将从2025年占全球容量的约25%增长到2030年的50%。

全球超大规模云厂商的资本支出在2026年预计达到约7000亿美元,高于2025年的约4370亿美元,许多华尔街预测指向2027年超过8500亿美元。全球活跃数据中心容量预计在2025年至2035年间增长六倍,从24.4吉瓦攀升至147.1吉瓦。

这些冰冷的数字背后,是一个正在被彻底重构的商业世界。

黄仁勋在GTC 2026上提出了一个全新的概念——“Token工厂经济学”。他指出,传统数据中心的核心功能是存储与传输数据,而在AI时代,数据中心将全面转型为生产Token的“工厂”,Token成为数字经济的核心生产要素。

“所有AI工厂都受物理定律约束,在固定功率限制下,每瓦性能、每瓦Token吞吐量直接决定企业的生产成本、商业效率与核心竞争力,成为AI时代的‘生命线’。”

国内的情况同样火爆。2025年我国日均Token调用量已超过140万亿,相比2024年初增长了1000多倍。相比2025年底的100万亿,3个月时间里又增长了40%多。

Token,这个原本只有程序员和AI研究者才会接触的专业术语,如今正在以一种近乎粗暴的方式,闯进每个职场打工人的日常生活。

因为Token已经不再只是技术指标——它正在变成你的KPI。

“Token”进工资条,AI使用量成了你的新KPI

2026年3月24日,国家数据局正式将Token定名为“词元”,并将其定义为“结算单位”。这意味着AI产业正式迈入可计量时代。

消息一出,各大科技公司迅速行动。Token开始被写进薪酬年包和绩效激励里。“入职附带多少Token配额”,甚至成了硅谷近期的热门招聘话题。

国内某公司甚至出台新规则:员工使用Token过少,就可能被淘汰。

这并非孤例。

2025年7月,微软曝出消息:公司副总裁Julia Liuson在一份内部备忘录中要求管理层将员工使用人工智能工具的情况纳入绩效考核体系。开发人员的代码生成需结合GitHub Copilot辅助,销售岗位要用AI提升客户提案的成交效果,就连HR筛选简历,也要参考AI工具的使用效率。

AI从“可选项”变成了“必答题”,从“提效工具”变成了“考核指标”。

2026年2月,昆仑万维集团董事长方汉发布内部信,正式启动全技术团队AI编码能力升级战略。所有技术研发岗位员工被要求全程采用Codex或Claude Code开展核心编码工作,目标实现开发效率提升不低于50%,并将AI编程能力正式纳入H1半年度绩效考核体系,未达标者将按5%–20%比例实施绩效优化。

国内某BAT公司甚至直接把员工的绩效和AI工具的Token消耗量挂钩。如果你在工作中没“烧”够算力,可能会影响你的转正、加薪甚至是晋升。

阿里巴巴ATH事业群率先将AI业务核心指标从DAU全面转向Token消耗量,设立专门团队统筹算力分配。腾讯部分研发团队明确要求工程师每日消耗指定额度的Token,否则绩效评级受限;字节跳动则在内容创作、产品研发团队中推行AI工具强制使用。

这股浪潮已经从中国席卷到了全球。

在硅谷,一个充满讽刺性的新词正在流行——Tokenmaxxing(Token最大化)。有人为了在内部排行榜上刷到高位,单周消耗了2100亿个Token,这相当于33个维基百科的文本总量。还有工程师每月的AI账单高达15万美元,甚至比他本人的工资还要高。

黄仁勋曾在一场分享中提出:工程师年薪几十万美元,他会在基础薪资之上再给他们相当于一半年薪的Token,让他们能力放大10倍。

但这番话传到国内后,“额外给的Token”变成了“必须完成的绩效”。

新京报专栏评论员尖锐地指出:把员工绩效跟Token迅速绑定,是一种AI浪潮下的公司管理惰性。事实上,Token用得多的人不一定是会用AI的人,会用AI的人也不一定是会思考的人。

被AI“异化”的打工人,为了考核而AI

如果说强制使用AI还只是制度层面的压力,那么真正让人窒息的,是这些制度落地后对日常工作方式带来的扭曲。

澎湃新闻近期采访了六位来自不同大厂、不同岗位的从业者,他们的遭遇令人不寒而栗。

一位来自国内头部互联网大厂的运营人员“好好”讲述了她的经历:

三周前,领导在群里发通知,说以后“鼓励大家用AI提效”,没有KPI,不挂钩绩效。但在例会上,领导又强调:以后所有工作产出,都可以让AI先生成一版。那一刻她明白了,这其实是隐性要求。

二十多天前,团队被统一要求使用公司自研的AI工具,理由是“数据安全”。但问题很快出现:首先是额度限制,公司给每人发放的调用次数有限,得精打细算地省着用;其次是能力不稳定,写文案还行,一旦涉及数据分析和复杂逻辑,就开始出错。

她接到了一个任务——用AI做一个分析客户和销售数据的数据看板。过去这是技术部门的活儿,现在需要“人人都会”。

结果呢?

第1次,AI给了一个数据上传模板,里面多了七八个根本用不到的字段,她只好手动删改。

调教到第13次,维度和数据总算对齐了,但显示地区漏了三个,AI还解释说是“自动筛选低价值区域”。

调整到第40次,数据格式开始混乱,小数点有的保留0位有的保留4位。

强撑到第60次修改,上传新数据后图表无法自动更新,新旧数字叠加,数据膨胀近一倍。

熬到第80次修改,终于走到了PDF导出成功的最后一步,打开后却是一堆乱码。

她仔细算了一笔账:反复调试、等待“抽卡”的时间,足够人工做完两遍。但领导想看到“AI产出”,她就得陪这位“AI初级员工”不断试错。

另一名在美国电商公司工作的工程师Kevin也面临类似的困境。公司内部上线了一个追踪员工AI使用频率的系统——谁在用、谁没怎么用,后台都能看出来。

为了凑够AI使用次数,他甚至做过这样的事:把一段参数校验的代码删了,直接丢给AI改写。AI生成的代码看着像那么回事,但少处理了一个异常分支,最后还是得自己补回去。

我们究竟是在使用AI,还是在给AI当燃料,一步步把自己变成可被替代的流程?

这种困境并非中国独有。在硅谷,一名微软员工在匿名论坛上吐槽:“公司要求我们每天提交AI使用报告,但我做的90%的工作根本不需要AI。现在我需要花20%的时间去想怎么让AI看起来有用。”

当“用AI”本身成为目的,当“烧Token”变成绩效,效率提升的工具就异化成了束缚人的枷锁。

数据黑洞,你在“训练”你的替代者

如果强制使用AI只是让人疲惫,那么接下来的问题,则令人不寒而栗。

当你的每一次AI对话、每一段代码生成、每一个决策逻辑都被系统记录、分析、沉淀时,你的工作经验正在被悄悄“剥离”出你的大脑。

一名受访者透露,公司要求他把自己多年的工作经验拆成流程、写成Skills,交给AI反复调用。

这意味着一个资深工程师花了五年、十年积累的“手感”、判断力、直觉——那些无法写在教科书上的隐性知识——正在被系统地拆解成可以被机器执行的“步骤”。一旦这个过程完成,公司就不再需要这个工程师了,因为任何一个新手加上AI,都能复现80%的工作产出。

新京报专栏分析指出:从长期看,强制AI绩效化会改变人的思考方式,员工逐渐习惯思考外包,不再深入推理,思考能力被考核制度削弱。

更隐蔽的风险在于数据归属。当你使用公司自研AI工具时,每一次对话、每一次决策逻辑都留在了公司的服务器上。这些数据成为训练下一代AI模型的关键素材。而在当前法律框架下,这些数据的知识产权到底归谁,仍是一个灰色地带。

你是AI工具的使用者,但你也是AI的“训练师”。你在免费为公司的AI模型提供高质量的标注数据,而这些数据最终可能用来替代你的岗位。

这不是危言耸听。2025年已有明确的案例。Salesforce CEO Marc Benioff公开表示,公司裁掉了4000名客服人员,因为AI已经能完成50%的工作。亚马逊宣布裁减15000个岗位,AI是其中的重要因素。美国咨询公司Challenger, Gray & Christmas的数据显示,AI被视为2025年美国近55000起裁员的重要促成因素。

全球范围内,世界经济论坛《2025年未来就业报告》预测:到2030年,技术进步将为全球催生1.7亿个新岗位,但与此同时,也可能让9200万个现有岗位被替代。40%的雇主预计将在AI可以自动化完成工作任务的领域裁员。

咨询公司Mercer对全球12000人的调查发现,员工对AI导致失业的担忧从2024年的28%飙升至2026年的40%,62%的员工认为领导者低估了AI对情绪和心理的冲击。

IMF总裁克里斯塔利娜·格奥尔基耶娃在达沃斯论坛上直言:“AI正在像海啸一样冲击劳动力市场,大多数国家和企业还没有做好准备。”

当算力成为权力的杠杆

让我们把目光从微观拉回宏观,就会发现一个更深层的问题:

算力正在成为数字时代最核心的权力杠杆,而掌握算力分配权的人,正在重新定义职场的游戏规则。

黄仁勋提出的Token工厂经济学中,将AI服务划分为免费层、中级层、高级层、高速层、超高速层五大层级,对应不同的Token定价标准,其中超高速层每百万Token定价高达150美元。

这意味着算力已经不再是中性的“基础设施”,而是可以被差异化定价、按需分配的商品。

当公司把Token配额作为员工绩效的考核指标,当你的转正、晋升、加薪都取决于“烧”了多少Token,实际上发生的是:公司用自己控制的资源(算力配额)来考核你,而考核的标准(Token消耗量)与你的实际工作产出之间,存在巨大的鸿沟。

一位Token消耗量排名第一的员工反而很苦恼——他被老板一顿夸,还让他做直播分享如何高效使用AI。但真相是:他一直用AI来给自动回复问题、抢会议室、生产本该由他自己生产的技术文档。Token消耗越多,越说明他的摸鱼技巧高超。

Token用得多不等于工作效率高,但考核制度只看数据,不辨真假。

这暴露了当前职场AI化的一个根本性矛盾:公司想要的是效率提升,但考核的是工具使用量;员工想要的是保住饭碗,但被迫在无效的AI使用上浪费时间。

“AI脑雾”,当思考能力被系统性地削弱

这场AI算力支配的背后,还有一个更让人担忧的后果——我们的思考能力正在被悄悄地削弱。

新京报专栏指出,强制AI绩效化会改变人的思考方式,员工逐渐习惯思考外包,不再深入推理,思考能力被考核制度削弱。实际上,Token用得多的人不一定是会用AI的人,会用AI的人也不一定是会思考的人。

这并非杞人忧天。麻省理工学院媒体实验室的一项研究发现,“过度依赖AI驱动的解决方案”可能导致“认知萎缩”和批判性思维能力的退化。南京航空航天大学人工智能学院副教授李博涵指出,长期依赖AI的人,大脑里的神经连接会变少,批判性思维也会直线下降,就像蒙上了一层“AI脑雾”。

微软和卡内基-梅隆大学的研究也有类似发现:生成式AI会削弱批判性思维能力,导致过度依赖,可能削弱人们独立解决问题的能力。

这种现象被称为“认知卸载”——当AI接管更多任务时,人类独立完成这些任务的能力可能会下降。当决策越来越依赖AI的建议,当问题越来越习惯让AI来解答,我们的大脑正在经历一场静默的“去技能化”。

更讽刺的是,我们之所以失去思考能力,恰恰是因为我们在“被迫使用AI”的过程中,被剥夺了深度思考的时间和空间。

当你的每一天被Token消耗量追着跑,当你的每一次工作产出都被要求“先用AI生成一版”,当你不得不把80%的时间用来“调教”一个还不成熟的AI工具——你哪里还有时间去思考、去创造、去突破?

公司得到的是整齐划一的、可量化的“AI成果”,失去的是人类最宝贵的东西——独立思考、批判性思维和创造性。

世界经济论坛《2025年未来就业报告》中明确指出,分析思维能力是雇主最看重的核心技能,十分之七的公司认为这点至关重要。然而讽刺的是,企业一边说需要员工的思维能力,一边却在用Token考核制度把员工变成只会“烧Token”的机器。

我们还能做什么?

面对这场由AI算力驱动的职场变革,我们并非完全没有选择。

首先是认知上的觉醒。你需要清楚地知道:你在使用AI的过程中留下的每一个数据点,都在训练你的替代者。这不是阴谋论,这是AI行业公开的秘密。当你被要求把自己的工作经验写成Skills交给AI调用时,你应该意识到这意味着什么。

其次是策略上的调整。不要把所有的工作经验和判断逻辑都毫无保留地交给AI。保留那些真正属于“人”的部分——直觉、判断、创造性的解决方案。AI可以写代码,但架构设计还是你的;AI可以写文案,但创意还是你的;AI可以处理数据,但洞察还是你的。

第三是技能上的升级。与其被动地使用公司强制要求的AI工具,不如主动学习如何让AI真正为你所用。掌握提示工程(Prompt Engineering)、理解AI的边界和局限、学会验证AI的输出——这些能力本身就是护城河。

第四是法律上的关注。AI生成内容的版权归属、用户数据的所有权、AI决策的责任界定,这些法律问题正在全球范围内被激烈讨论。关注这些议题,在适当的时机发声,推动更公平的制度建立,是每一个职场人的权利。

第五是保持独立思考。不要让你的大脑变成AI的“附属品”。保留深度阅读的习惯,保持与人面对面交流,坚持动手写东西而不是什么都让AI代劳。这些看似“低效”的行为,恰恰是防止“AI脑雾”的最好方式。

新京报专栏的最后一句评论值得深思:在AI变革最关键的时刻,就首先把主意打到绩效考核上,这一步,是不是走得过快了?当Token被写进工资条,当算力成为KPI,当每一个打工人都被裹挟在这场AI化的洪流中——我们需要问自己的不是“会不会用AI”,而是“用了AI之后,我还是不是一个有独立思想的人”。

AI是一面镜子,照出的是人性

AI本身没有善恶,它只是一面镜子,照出的是使用它的人性。

算力可以是解放人类生产力的工具,也可以成为驯化人类的枷锁。关键在于:掌握算力分配权的人,想用它来做什么。

全球超大规模云厂商的资本支出正在以每年40%以上的速度增长,AI工作负载占比将在2030年达到50%。数万亿美元正在涌入这场算力竞赛。这是时代的大潮,没有人能逆流而上。

但在顺应趋势的同时,我们能不能做得更好一点?

能不能让AI真正服务于人的解放,而不是把人异化为“烧Token的机器”?能不能在追求效率的同时,保留一点对人性的敬畏?

这些问题没有标准答案。但至少,作为每一个在职场中挣扎的打工人,我们有权知道:当我们在使用AI的时候,AI也在使用我们。

我们所贡献的数据、经验和洞察,正在被系统性地收集、分析和商品化。这些数据的价值,最终流向了那些拥有算力和资本的人手中。而我们自己,可能只得到了一个“Token消耗量达标”的评价,以及一份随时可能被AI替代的工作。

这,才是“职场打工人正在被AI算力支配”的真相。

当你下一次打开公司的AI工具时,不妨问自己一个问题:

我是在用AI,还是在被AI用?