乐于分享
好东西不私藏

真正危险的 AI 式躺平,不是少干活,是放弃判断

真正危险的 AI 式躺平,不是少干活,是放弃判断

最近国安部披露,某境外组织通过资助”躺平网红”等方式,批量生产相关短视频,放大”努力无用””反内卷”等叙事。

我不打算讨论这条新闻的政治立场。

但里面有个事实值得停一下:今天的叙事,可以被组织化地、批量地制造出来。

短视频可以批量,情绪段子可以批量,爆款标题可以批量,论点可以批量。AI 出现之后,批量生产观点的成本,又下了一个数量级。

真正值得警惕的,从来不是某条具体叙事。

是当所有叙事都可以被流水线生产时,你还有没有自己的判断。


一个事实:今天的叙事,可以被批量制造

不只是境外组织能批量生产叙事。

今天任何一个稍微会用 AI 的人,一天都可以产出几十条标题、几十段文案、几十个观点。短视频脚本批量生成、爆款标题批量生成、评论区情绪批量生成、商品种草文批量生成,工具层面,这件事已经不可逆了。

这意味着一件没人明说但每天都在发生的事:你刷到的每一条”看起来有道理的话”,都不再天然代表一个人的真实思考。

它可能是某条 prompt 的产物。可能是某个矩阵号的批量产出。可能是某家机构的内容流水线。也可能就是某个人随手让 AI 编出来的两段。

生产这件事,变得几乎免费。

但消费的成本,被全部转移到了你身上——你需要判断这条信息从哪来、值不值得相信、值不值得进入你的脑子、值不值得改变你的决定。

大多数人没意识到这个成本被转移了。他们还按以前的习惯——刷到什么就吸收什么。这在 AI 之前还能勉强用,因为生产端贵,内容总要有人写;在 AI 之后已经不成立了。


AI 式躺平的真正样子:不是少干活,是不再判断

大部分人理解的”躺平”,是行动上的。少干活、不卷、降低欲望。

但 AI 之后,出现了一种新型躺平。它的外表不像躺平,反而像高效。

表现是这样的:遇到一个问题,直接打开 AI;AI 给一个方向,顺着走;AI 给一个结论,直接用;AI 给一段文字,稍微改改,发出去。任务完成了,KPI 完成了。看起来比以前还快。

我把这种状态叫做「AI 式躺平」。

它不是不工作。是把判断权交出去,然后还以为自己变高效了。

阿伦特有一句话经常被引用:不思考是恶。她想说的不是”邪恶”,而是一种”只问怎么做、不问应不应该做”的状态——任务感很强,主体感很弱。我不打算把它套到道德判断上,只想借这个对照说明一件事:AI 式躺平这种状态,在执行层面看起来高效,但内核是判断权的缺席。

只问”AI 怎么帮我更快地做完这件事”。

不问”这件事应不应该做、做的方向对不对、AI 给的结论靠不靠谱”。

量化的提示也已经有了。MIT Media Lab 去年那篇《Your Brain on ChatGPT》研究,在写作任务里观察了三组人的差异:LLM 组、搜索引擎组和纯脑力组。论文给出的结果是,LLM 组在脑连接活动、对作品的 ownership 感和后续记忆复述上,都和另外两组出现了差异。

这不能直接证明”AI 会让人变笨”。

但它至少提醒了一件事:当人把写作中的组织、生成和判断都交给 AI,脑子参与任务的方式会发生变化,作品归属感也会随之下降。判断不能完全外包,这是这项研究真正在说的。

我现在越来越警惕一种”假高效”。AI 把信息整理得很漂亮,流程跑得很顺,产出看起来很专业。但如果我没有先判断”这条信息值不值得进入流程”,后面越自动化,错得越快。

整理的速度越快,错的速度也越快。


判断层:工作流里不能让 AI 替你做的那部分

一个工作流里,总有些环节可以自动化,也总有些环节必须由人承担。

可以自动化的部分,叫执行。

必须由人承担的部分,我把它叫做「判断层」。

判断层不是抽象概念。它是五个具体动作:

第一,判断来源真伪。 这条信息从哪来。源头可不可信。是亲历者写的,还是二手转述的,还是某个内容流水线生成的。AI 不知道你能信谁。

第二,判断假设是否成立。 这个结论默认了什么前提。这些前提在我这边成立吗。AI 给的答案常常是有前提的,但它不会主动告诉你前提是什么。

第三,判断利益相关。 谁在说。他为什么这么说。他的位置是不是决定了他必须这么说。AI 看不到这一层,因为它没有立场,但说话的人有。

第四,判断可执行性。 在我现在的资源、节奏、约束下,这件事真的能做吗。AI 给的方案常常是”理想情况下能跑通的方案”,但理想情况不是你的情况。

第五,判断结果验证。 做完之后我用什么标准衡量它对了还是错了。没有验证标准的工作流,不是工作流,是仪式。

这五项里,AI 可以辅助你想,可以帮你列可能性,可以给你提示。但它没法替你拍板。因为这五项的标准答案,只在你的处境里。

一个反例容易看清楚。AI 时代有篇被反复转的判断:执行成本归零之后,真正稀缺的仍是判断力。这句话之所以成立,正是因为执行可以让 AI 做,判断不能。如果判断也能让 AI 做,这句话就是错的。它不错——所以我们都还得留在判断的位置上。

一个更贴近内容工作流的例子是这样的。

AI 可以帮我抓取信息、做摘要、打标签、做聚类,甚至给出选题建议。这些都是执行,可以放心交出去。

但哪些信息值得进入素材库,哪个选题值得今天写,哪条判断会影响读者的行动——这些必须由人拍板。因为这些不是执行问题,是责任问题。

这套流程的真正特点,不是用了多少 AI,是显式地把判断层和执行层分开了

我自己在处理大量外部信息的时候,会有意保留几个动作不交给 AI:决定看什么、决定写什么、决定信什么。这三件事一旦交出去,后面跑得再顺,跑的也不是我的工作流——是 AI 替我跑的工作流。我只是站在它旁边按确认。


自动化的尽头是判断,不是退场

很多人对 AI 工作流有个误解:以为”自动化”等于”人退出”。

这是反的。

自动化的真正逻辑,是把人从可重复、低判断密度的环节里抽出来,然后让人坐到判断密度最高的位置。

工程界其实早就讲清楚过这件事。有篇关于”AI 优先战略”的复盘里说,所谓 AI First 不是多用几个工具,而是用工程基础设施——测试、CI/CD、监控、任务管理——把人从低效环节里搬走。在缺乏这些基础设施的团队,AI First 就只是口号。

这句话翻译到个人工作流里同样成立:你必须先有自己的判断结构,自动化才能放大它。没有判断结构的自动化,放大的不是产出,是错误。

所以「AI 式躺平」真正危险的地方,不是它让人闲下来。

是它让人从信息流的下游,搬到了 AI 的下游。

以前是被信息流喂养,你至少还能感觉到推送、广告、热搜在塞东西给你。

现在是被 AI 自动喂养,因为 AI 喂得更精准、更顺手、更”贴你的需求”。它不像信息流那样吵——它是安静的、礼貌的、配合的。你甚至感觉不到自己在被喂。

这就是为什么我每次设计一个新的 AI 流程,都会先问自己一句话:这一步,我是因为不会做才让 AI 做,还是因为 AI 比我更适合做。

前一种是逃避。后一种才是分工。


AI 工作流的终点,不是让人退出现场。

它应该把人从重复劳动里释放出来,重新放回判断的位置。

真正不能自动化的,不是写作、搜索、整理、排版。是你愿不愿意为一个判断负责。

AI 越强,人越要守住自己的判断层。

否则你不是被信息流喂养——是被 AI 自动喂养。而且喂得你以为自己在变强。