上周三,一个做电商的朋友给我发了一段录屏。
画面很无聊——一个后台界面,任务列表自己在跳动。
但他说的话不无聊:"你看,这个 AI 昨天自己给自己派了 47 个活,我没碰过。"
我一开始的反应是:这不就是自动化脚本吗?
他说不是。脚本是按你写好的规则跑,规则之外的事情它不会管。这个 AI 是——它自己判断"什么事值得做",然后给自己派活。
我仔细看了日志。早上 9 点, AI 检测到库存预警,自动创建补货任务。 9 点 15 分,它对比了 5 家供应商价格,选了最优的。 9 点 30 分,它发现某款商品转化率异常,自动下架并通知运营。 10 点,它分析了一上午的客服对话,发现一个之前没人注意到的新问题,自己更新了 FAQ 文档。
全程没有人介入。

我看完之后背脊有点凉。不是因为 AI 有多厉害——说实话,这些事任何一个熟练的运营都能做——而是因为这件事发生在周三凌晨 2 点到早上 9 点之间,我朋友在睡觉。
AI 不是在"帮忙"。它是在"上班"。
这就引出一个问题:当 AI 开始自己给自己派活,它到底算什么?
工具?员工?还是别的什么东西?
大部分人第一反应会觉得,这不就是个高级点的工具吗?
但是——不对,准确说,工具和员工的核心区别不在于能力大小,而在于"谁决定做什么"。
你用 Excel 的时候, Excel 不会自己跳出来跟你说"我觉得你应该分析一下 Q3 的利润率"。它等你下指令。但当一个系统能自己判断"什么事值得做"并执行的时候,它就已经跨过了工具那条线。
这条线跨过去之后,事情就不一样了。
因为这意味着雇佣关系的定义正在被改写。以前你雇佣一个人,签合同、发工资、交社保、担心人家跳槽。现在你"雇佣"一个 AI 代理,付的是 API 调用费和算力成本。没有劳动合同,没有离职补偿,它 24 小时在线,不抱怨,不带情绪上班。
企业算账算得很清楚:一个人类客服月薪至少 8000 块,一个 AI 代理 24 小时在线,一个月 2000 块。
但这只是最表层的影响。更深的东西在底下。
当一部分人开始用 AI 代理替代人类员工的时候,那些还没有用 AI 的企业会怎样?
答案是:它们的成本结构会瞬间失去竞争力。
这不是预测。已经有数据了。 2025 年底,美国一家叫 Anthropic 的研究机构做了一个实验——他们让一组完全由 AI 代理组成的团队和一组人类团队做同样的工作,任务是分析市场数据、写报告、做决策。 AI 组用了 3 个小时完成任务,人类组用了 14 个小时。而且 AI 组产出的报告在某些指标上评分更高。
当然这只是实验,不代表真实工作环境。但真实环境中的数据同样指向一个方向。
有物流公司用 AI 代理替代了整个调度团队。以前 15 个人的调度中心,现在 3 个人加上 12 个 AI 代理。不是裁掉了 12 个人——是一开始就没招那么多人。

这就是为什么 2026 年职场正在出现的 K 型分化,不是未来时,是进行时。
上面那根线——会用 AI 的人,一个人活成一支队伍。一个人加上几个 AI 代理,干以前五个人的活。
下面那根线——被 AI 替代的人,不是被"优化"了,是他们干的那些活, AI 干得更好还不要工资。
最惨的是中间层——那些"半吊子"岗位,既需要一点判断力,又大量重复劳动。这种岗位最容易被 AI 切掉一半,然后剩下一半的人类员工干着比以前更累的活,拿着比以前更少的钱。
有个词叫"AI 工作垃圾"——食之无味弃之可惜的岗位,最容易被整个端掉。
但这里有个误区。很多人看到 K 型分化,觉得"那我学 AI 不就行了"。
没那么简单。
因为会用 AI 的人和不会用 AI 的人之间,差的不是"会不会用工具"这件事。差的是"知道什么事值得让 AI 做"的判断力。
你可能觉得这句话跟"学会提问"差不多,都是些正确的废话。但我想说的是具体的东西。
我那个做电商的朋友,他的 AI 能自己给自己派活,是因为他花了一个月时间,把自己过去三年的运营经验全部拆成了规则和目标。他告诉 AI"什么情况下该补货"、"什么情况下该下架"、"什么情况下该更新 FAQ"。不是写代码,是用自然语言描述他作为运营负责人的思维方式。
这不是"学 AI"。这是"把自己的经验变成 AI 能理解的规则"。
大部分人没有这个能力。不是因为他们不懂技术,是因为他们从来没有系统地梳理过自己的工作方法。他们就是"凭感觉"干活。
但凭感觉干活的人,很快就会被那些"有方法论"的人加上 AI 代理干掉。
AI 现在能自己给自己派活了。但派什么活、优先级怎么排、出了问题谁背锅——这些事 AI 干不了。
目前来看,有四样东西 AI 还差点意思。
真正从 0 到 1 的创造。 AI 很擅长从 1 到 N 的复制和优化,但从 0 到 1 那一下——想出一个从来没存在过的产品、一种从来没有过的商业模式——还是需要人。不是技术上做不到,是因为从 0 到 1 的本质是"看到一个别人没看到的需求",而 AI 的训练数据全部来自"已经存在的东西"。它只能重组已知,不能发现未知。
复杂情境下的判断。信息不全、规则不清晰、还要有人背锅的决策, AI 干不了。不是技术上做不到,是社会不接受。你不敢让一个没有主体资格的东西做会害人的决定。比如医疗诊断——AI 可以辅助分析,但最终下判断的必须是有执业资格的医生。因为一旦出了事,你要能追责。你没法起诉一个算法。
情感连接。你可以跟 AI 聊天,但你不会真的"信任"它。人和人之间那种微妙的信任感——你知道对方也会犯错、也会犹豫、也会承担责任——这种信任 AI 给不了。商业合作里面,很多时候对方愿意跟你签单,不是因为你的方案最好,是因为他觉得"你这个人靠谱"。 AI 没有"靠谱"这个属性,因为它没有"不靠谱"的可能——它只是一段代码。
承担责任。 AI 干错了,谁来背锅?是 AI 的问题?是数据的问题?还是调参的人的问题?现在已经有官司在打这个了。美国一家公司用 AI 代理做招聘筛选,结果被控歧视。法庭上没人能说清楚到底是算法的错、训练数据的错、还是部署这个系统的人的错。最终背锅的,还是人。
所以人类的价值正在从"执行"转向"定义"——从"把事做完的人"变成"定义什么事值得做的人"。
这个转变对不同的人意味着完全不同的东西。
对创业者来说,这意味着一个人可以启动以前需要一个团队才能启动的项目。成本门槛降了,但判断力的门槛升了。你以前可能需要五个合伙人才能启动的事情——一个做产品、一个做运营、一个做客服、一个做数据分析、一个做商务——现在你一个人加上几个 AI 代理就能开始。但前提是你知道"产品该怎么做"、"运营该怎么搞"、"客服该怎么管"。你不需要亲自做这些事,但你需要知道什么事值得做。
对执行层员工来说,这意味着你每天干的那些重复活迟早会被 AI 接手。问题不是"会不会",是"什么时候"。客服、基础运营、数据录入、文档整理——这些岗位的被替代速度比大多数人想象的要快。但不是所有人都能被替代。那些需要跟客户建立信任关系的岗位,那些需要在信息不全的情况下做判断的岗位,那些需要承担责任的岗位——这些短期内还安全。
对管理者来说,这意味着你团队里一半的人可能三年后就不需要了。但另一半人的价值会变成以前的三倍——前提是他们是那种"知道什么事值得做"的人。管理的重心会从"管人"转向"管 AI"——调参数、定目标、判结果、做取舍。这对习惯了管人的管理者来说是一个全新的能力要求。
这事儿听起来挺让人焦虑的。但焦虑没用。
历史上每一次技术革命都会带来类似的分化。工业革命时期,手工业者被机器替代,但同时也诞生了工程师、机械师这些全新的职业。互联网时代,传统的渠道分销被电商替代,但同时也诞生了电商运营、数据分析师这些新岗位。
这次也不例外。
不同的是,这一次的速度更快。工业革命用了几十年才完成替代,互联网用了十几年。 AI 可能只需要三五年。
2026 年, AI 代理正式上岗了。
它不是来抢你饭碗的,是来重新定义"饭碗"这个东西的。
当 AI 能自己给自己派活的时候,你凭什么让它给你派活?
夜雨聆风