
人的幻觉,有时候比 AI 的幻觉更严重。
这段时间,OpenClaw 很火。
它的火,因为它挂着本地 Agent、多 Agent、技能系统这些时髦标签,也因为它刚好踩中了当下很多人的心理:大家都隐约感觉到,AI 正在把工作方式往前推一大截,但多数人又还没真正建立起自己的新工作流。
于是每当这种看起来已经很完整的工具出现,人就会很自然地把自己的期待、焦虑和想象,一股脑地投射上去。
很多人看到它,第一反应不是它适不适合我的工作,而是别人都已经开始用了,我是不是也该赶紧装上。
这个念头一出来,后面的事情就偏了。
因为你关心的已经不是问题本身,而是自己有没有赶上这波热潮。
再往后一步,幻觉就出现了:
好像只要把它装上,本地跑起来,接上几个渠道,再配几个 Skill,自己就已经半只脚踏进一个人公司的时代;好像你离拥有一个数字分身,只差一条命令。
AI 时代有一种很典型的幻觉:把工具的出现,当成自己能力的获得。
一、你在焦虑什么?
很多人装 AI 工具,不是因为真的有明确需求,而是因为大家都在用。
朋友圈有人发 Midjourney 的图,社群有人聊 ChatGPT 新玩法,订阅号推送某某工具改变了我的工作方式,短视频里每天都在上演一个人顶一个团队的神话。
你看多了以后,很难不焦虑。
你会开始担心,别人是不是已经借着这些工具完成了一轮升级,而自己还停在旧时代的工作方式里。
这就叫 FOMO。
它当然不只发生在 AI 领域,但在 AI 这里尤其剧烈,因为 AI 带着一种能力跃迁的诱惑感。
买一件新硬件,学一个新软件,感觉都不太一样。接上 AI,你会有一种暗示:原来做不到的事情,现在有机会做成了。
问题恰恰在这里。FOMO 驱动的行为,最大的问题不是盲目,而是你根本不知道自己为什么要做这件事。
你不是从问题出发去找工具,而是从别人的热闹出发,倒推自己也该有一个。
没有目标的学习,很容易变成自我感动。没有问题的工具,也很容易变成数字闲置。
OpenClaw 这波热潮,本身就很能说明问题。它当然很强,也正因为强,所以更容易让人误判。
你看它的介绍,会觉得一切都已经就位了:它能接消息,能调工具,能管理文件,能执行任务,能持续运行。
你缺的仿佛只是一层调用能力,只要把这层能力接上,你原本那些分散、琐碎、推进困难的工作,就会自动被重新组织起来。
但现实不是这样。
现实是,很多人装完以后,马上会进入一种奇怪的停滞状态。
不是工具不能用,而是你忽然发现自己不知道该让它干什么:
不知道哪些任务值得交给它,不知道怎么给上下文,不知道什么时候该新开 Session,什么时候又该延续旧的,甚至不知道自己到底是想拥有一个助理,还是只是想暂时缓解一点被时代甩下的焦虑。
到这一步,问题就暴露出来了:人很容易把接触到强工具,当成已经拥有了驾驭它的能力。
这是两回事。
工具可以下载,能力得自己生长。
二、Photoshop 也没让你成为设计师
换个例子,这件事就更容易看清楚了。
Photoshop 是全世界最强大的图像处理软件之一,能做海报、修照片、合成特效,几乎涵盖了视觉创作的大多数场景。
但 Photoshop 普及这么多年,有多少人因为装了它,就真的成了设计师?
很少。
大多数人的状态其实很熟悉:装了,打开,面对一堆面板,不知道从哪里下手。
别说做海报了,裁一张图都要研究半天。
为什么会这样?原因并不复杂。
工具的强大和你会用它之间,没有必然联系。
Photoshop 只是一个放大镜,它放大的是你的能力,不是凭空创造能力。
你不会设计,不会配色,不会排版,装了 Photoshop 也依然不会。最多只是让你更具体地意识到,自己原来不会的东西,比想象中还多。
AI 工具也是一样。
很多人总以为,自己缺的是工具。文件太乱了,想装个 AI;任务太多了,想装个 AI;写作没思路了,想装个 AI;效率不够高,还是想装个 AI。
好像 AI 是一种万能中介,只要把它接进来,原本混乱的东西就会自动变得有序,原本拖延的工作就会自动开始推进,原本模糊的判断也会自动变清楚。
但事实恰恰相反。
一个人的工作如果本来就没有被组织好,那么 AI 进来之后,放大的通常不是秩序,而是混乱。
你的文件本来就乱,它只会更快地在乱文件里帮你生成更多内容;
你的任务本来就没有优先级,它只会更快地帮你把低价值的事情做得很热闹;
你的判断标准本来就不清楚,它也只会输出一堆看起来像那么回事的东西,让你更难分辨真正有用的部分。
工具不会替你生成结构。它放大你原有的结构。如果原来没有结构,被放大的就只是失控。
很多人不是在用 AI 提升效率,而是在用 AI 加速自己的混乱,只是因为速度更快、界面更新、反馈更即时,所以这种混乱看起来一度还挺像生产力。
三、打字就行是人类最大的幻觉
大模型刚出来那会儿,有个沟通说法叫提示词工程。
这个说法一流行,很多人立刻就产生了一种误会:仿佛只要学会怎么和 AI 说话,它就能帮你完成一切。
于是网上铺满了万能提示词模板、三句话让 AI 帮我写代码、一句话生成完整方案之类的内容,好像掌握了某种话术,就掌握了新世界的钥匙。
这纯粹是人的幻觉。
AI 会胡编乱造,这当然是幻觉。
但很多时候,人的幻觉比 AI 更严重。
AI 的幻觉,是输出一个看起来像真的答案;人的幻觉,是觉得自己只要说清楚,就能做到一切。
可问题是,打字谁不会?会打字,不等于会表达;会表达,不等于会判断;会下指令,更不等于真的知道自己想要什么。
提示词不是咒语,它只是一套上下文描述方式。
你觉得说清楚就行,但实际上,真正决定结果质量的,从来不是你说了多少字,而是你背后有没有清楚的目标、标准、边界和取舍。
你的目标是什么,你真的清楚吗?什么算好,你的标准是什么?什么算完成,做到什么程度算完?中间的边界在哪里,什么该做,什么不该做?
这些都不是 AI 能告诉你的,它只能在你明确目标的前提下,帮你更高效地到达。
所以,一个不懂业务的人,写不出好的提示词。
因为提示词的本质,不是让 AI 听懂,而是把你脑子里那些本来就存在的判断标准,翻译成 AI 能够执行的语言。
你觉得写合同就是把条款写清楚,但你心里真的清楚清楚是什么意思吗?哪些地方必须写死,哪些地方故意留白反而更有操作空间?
这些不是 AI 能教你的,它们本来就是你的专业能力。
你判断一份合同有没有风险的标准是什么,你区分一个案件要不要接的依据是什么,这些往往是多年经验的沉淀,不是看几篇提示词技巧就能学会的。
没有这些,写再多结构化提示词模板,也还是空中楼阁。
你以为你在指挥 AI,很多时候,你只是在暴露自己的思维盲区。
看似有用,不代表真的有用。
AI 没有把复杂问题变简单,它把复杂问题的入口,伪装成一场轻松的对话。
四、OpenClaw 也是一个 Photoshop
回到 OpenClaw。
很多人看到它的介绍,会觉得太棒了,这就是我需要的。
然后装上之后,发现不知道该怎么真正用起来。
这是必然。
因为 OpenClaw 确实强大,但它的前端又足够简单,一个对话界面,点几个按钮,好像就能跑起来。正因为这种表面简单,它更容易制造一种错觉:好像自己终于可以直接通过语言去调动复杂系统了。
这和 Photoshop 很像。(相对)简单的界面背后,是复杂的功能模块。
Skill 是什么,怎么写?Session 怎么管理,什么时候开新的,什么时候用旧的?上下文怎么构建,给多少信息才不算过度喂养?多 Agent 为什么要协作,协作的边界又在哪里?
这些问题没有统一答案,因为每个人的工作流不同,需求不同,沉淀不同。
你以为自己缺的是会不会用,实际上你缺的是一整套此前没有被显性整理过的工作结构。
所以,工具只是框架,真正的能力是你往框架里填的东西。
一个不懂自己工作流程的人,用 OpenClaw 和用 ChatGPT,很多时候没有本质区别,反正都是问一句,答一句。
换句话说,他并没有真的进入 Agent 协作的阶段,只是把原本的对话式使用,换了一个更复杂也更容易让人兴奋的界面。
到这一步,问题就清楚了:
AI 对每个人原本都差不多。你和别人用同一个模型,问同一个问题,得到的东西大同小异。因为 AI 不知道你是谁,也不知道你有什么特别。
只有你不断地把自己暴露出来,给 AI 足够多作为你自己的上下文,它才有可能真正产出对你有用的东西。
这也是 OpenClaw 这类工具真正有意思的地方。
它不是单纯替你做事,而是在逼你第一次正视一些以前可以一直糊弄过去的问题:你的工作流到底是什么样的,你的上下文应该如何保存,你的项目该如何拆分,哪些信息要长期记住,哪些信息只属于一次性会话。
到这一步你会慢慢发现,问题已经不是会不会用某个 AI 工具。
真正的问题是:你有没有一个足够清楚、足够稳定、足够可维护的自己。
如果没有,工具越强,幻觉越强。你容易产生一种错觉,好像自己已经可以跳过这些基础工作,直接进入高阶协作。
但你跳不过去。
凡是原本需要你承担的判断、组织、取舍和维护,它们只会以另一种方式重新回来。
五、所以你应该怎么做?
写到这里,不是劝退。
只是想让人冷静下来想一想。
最糟糕的状态,不是不会用 AI,而是在一轮又一轮热潮里反复兴奋、反复配置、反复失望,最后把自己弄得像是在学习,实际上却没有真正解决任何问题。
第一,先找问题,再找工具。
不要因为这个工具很火就去学。先问自己,我的痛点是什么?什么工作让我反复重复劳动?什么任务让我觉得繁琐,或者总是推进不下去?
你只有先把问题钉住,工具才有位置。否则你得到的只是一堆看起来很先进、实际上和你生活没有真正关系的功能列表。
第二,工具要学,但别只学操作。
学一个工具,不只是学怎么点按钮,而是学它背后的设计逻辑是什么。
OpenClaw 的 Skill 机制为什么这样设计,Session 为什么要这样管理,上下文为什么不能一次给太多,这些都不是枝节,而是它之所以能工作、或者之所以会失控的核心。
只学操作的人,最后只能停留在表层试用;理解设计逻辑的人,才有可能把工具真正嵌进自己的工作流里。
第三,接受学不会这件事。
不是所有工具都适合所有人,也不是所有阶段都值得把某个工具硬塞进来。
如果你发现自己装了某个 AI 工具,但三个月没打开过一次,这不一定是你的问题,也可能只是它真的不适合你现在的需求。
删掉它,不丢人。
真正丢人的,不是卸载一个不适合的工具,而是为了维护我没有落后的幻觉,继续假装自己在使用它。
结语
OpenClaw 很火,这没有问题。
真正值得警惕的,是人会在这种热潮里迅速产生一种错觉:好像自己终于可以不必那么费力地面对复杂性了,好像只要把一个更强的 AI 工具接进来,原本那些定义不清的问题、组织不好的信息、推进不了的项目、拿不稳的判断,都可以被一起打包带走。
但复杂性不会因为一个新工具出现,就自动退出历史舞台。
它只会暂时躲起来,躲进更顺滑的界面里,躲进更聪明的反馈里,躲进打字就能搞定的承诺里。
等到你真正开始用它做事,开始要判断结果,开始要接管细节,开始要维护系统,它就会重新出现,而且往往会以一种更集中、更难回避的方式出现。
到那个时候,你会明白一件事:
AI 时代最需要被修正的,也许不是模型的幻觉,而是人的幻觉。
因为模型只是会胡说。人却会在一次又一次的热潮里,误把工具当能力,误把入口当掌控,误把新鲜感当生产力。
模型的错误通常还能被发现,人的这种误判却更隐蔽,因为它往往以行动的形式出现。
而这,才是更常见也更难识别的问题。
新增微信交流群

如果人满或者过期了,可以添加我微信我手动拉群
作者
杨卫薪律师/专利代理师/律所 AI 部门负责人/ SuitAgent 框架开发者
专注知识产权、数据与 AI
探索法律 AI 工程化、Vibe Working System、Context Engineering

夜雨聆风