乐于分享
好东西不私藏

OpenClaw和Hermes都火了,我反而劝你先别追工具

OpenClaw和Hermes都火了,我反而劝你先别追工具

你越认真学 AI,可能越容易跑偏。

这话听着有点刺耳。

但我现在越来越确定。

很多人以为自己在学 AI,其实只是在追热点。

今天收藏一个 SKill,明天研究一下 Claude 的新功能,后天看到新模型发布又开始补模型评测。

再过两天,另一个好用的设计 skill、全网都在用的原型 MCP、号称能解决你工作问题的 AI 插件,又排队进了收藏夹。

再刷一会儿,OpenClaw、Hermes Agent、Harness Engineering 这些词又会冒出来。

每一个都像是新入口。

也都像是在提醒你,你好像又少学了一块。

表面上看,你每天都在学习。

但过一段时间你会发现,真正能稳定用起来的东西并不多。

工具知道不少,概念也能说几句,可一到自己的工作、项目、内容、业务问题里,脑子还是散的。

那种感觉挺狼狈的。

这才是 AI 学习里最隐蔽的坑:

你以为自己缺的是更多工具,其实你缺的是一套判断系统。


一、越努力越焦虑,因为你把热闹当成长

我以前也掉进过这个坑。

有段时间,我给自己安排的学习计划是,上午学习模型算法,下午学习工作流搭建,晚上学习提示词工程。

学习计划越排越满,但真正要落地做产品、拆问题、进行技术选型时,还是会卡住。

我当时还挺纳闷。

都这么努力了,怎么一到真实问题面前,还是像没带脑子出门一样。

看到别人说 Agent 很重要,就去补 Agent。

看到 OpenClaw 和 Hermes Agent 开始被讨论,就觉得自己是不是也该赶紧搭一个本地 Agent。

看到有人说 RAG 是刚需,就去看 RAG。

看到一个新的提示词模板,就觉得自己不能错过。

再加上 ChatGPT、Claude、今天这个 Agent、明天那个 Skill 这些更新太快,信息流每天都在提醒你:你又落后了。

这种感觉很容易让人上头。

因为每一个动作单独看都没错。

学工具没错,看教程没错,研究模型也没错。问题在于,它们之间没有主线。

你不是沿着一个真实问题在学习,而是在被外部信息推着走。今天被爆款教程推一下,明天被新模型推一下,后天被朋友圈案例推一下。

这就是 AI 学习最容易制造的幻觉:

信息越多,越像进步;收藏越满,越像安全。

但真实情况往往相反。

信息越多,如果没有边界,人越容易失焦;工具越多,如果没有问题,人越容易空转;教程越多,如果没有练习,人越容易产生一种“我好像懂了”的错觉。

说实话,这种错觉特别危险。

因为它不会让你觉得自己在偷懒,反而会让你觉得自己很努力。

你每天都在看、在记、在收藏。可真正要解决一个具体问题时,你会突然发现,自己只是在别人的路径里反复试跑,从来没有建立自己的路线图。


二、工具会被抹平,判断力才会变贵

很多人问:普通人面对 AI,还有机会吗?

我自己的判断很直接:有,而且不小。

但机会不在“比别人多会几个工具”。

工具的差距会被快速抹平。

今天你觉得某个提示词很稀缺,过几天就会有人整理成模板;今天你觉得某个工作流很复杂,过一阵子就会被产品做成按钮。

AI 世界里,单纯的工具熟练度不会长期稀缺。

我后来更愿意看三件事。

一个是,你能不能定义问题。

比如你不是问“怎么用 AI 写周报”,而是先问:我的周报到底要解决什么问题?是同步信息,争取资源,还是暴露风险?

再一个是,你能不能识别场景。

比如你不是让 Claude “帮我写一篇文章”,而是把读者是谁、卡在哪里、我要打破哪个误解说清楚。

还有一个是,你能不能建立系统。

比如你不是每次都临时打开 ChatGPT 乱问,而是把输入、处理、输出、复盘固定下来,让 AI 变成你工作流里稳定的一环。

这也是为什么我最近对 Harness Engineering 这个词有点警觉。

它听起来像一个新概念,但往下拆,其实不是让你再背一套术语。

它真正指向的是,把一个会乱跑的智能体放进一套可控的缰绳里:给它工具,给它权限,也给它边界、日志、验证和停止条件。

说得直白一点,Prompt 是你怎么跟 AI 说话。

Harness 是你怎么让 AI 在现实系统里干活,但不至于把事情干飞。

这三个能力,才是普通人的机会。

听着没有那么性感。

但它比“又发现一个神级工具”靠谱多了。

因为模型越强,越需要有人告诉它:什么问题值得做,什么结果算有效,什么边界不能越过。

如果你只会追工具,你永远站在更新的后面。如果你能定义问题、识别场景、建立系统,你就开始站到 AI 的前面。

你可以把这两种学习方式放在一起看:

追热点
建系统
我该学哪个工具?
我现在要解决哪个问题?
哪个模型又更新了?
这个能力能不能进入我的工作流?
追逐新的 skills。
沉淀自己的工作流和方法论,把 skills 当成可插拔的插件放进去。
看到 OpenClaw、Hermes Agent 就想马上安装。
先判断自己是否真的需要记忆、工具调用和本地执行权限。
听到 Harness Engineering 就去搜教程。
先想清楚要约束什么、验证什么、让 AI 在哪里停下来。
收藏更多提示词。
复盘哪些输入真的改善了输出。
今天试这个,明天试那个。
围绕一个真实问题连续迭代。

这张表才是分界线。

不是你知不知道新工具,而是你有没有自己的问题系统。


三、别急着打开 AI,先写下这 4 句话

后来我慢慢把自己的学习方式压缩成一个框架。

我叫它:AI 学习的边界系统

它不复杂,就四句话。

你可以直接复制这四句,别用 AI 生成,自己想清楚后写下来:

1. 我现在要解决的问题是:2. 这个问题发生在什么场景里:3. 我希望 AI 负责哪一段:4. 我用什么结果判断它有效:

这四个问题看起来朴素,甚至有点土。

但它真的管用。

它会逼你从“我要学什么工具”,回到“我要解决什么问题”。

举个例子。

如果你想学 claude code,不要一上来就问“claude code 有哪些使用技巧”。

先问:我想用它解决什么问题?

是读懂代码?改一个网页?写一个小工具?还是把一个想法做成可运行的原型?

问题不同,学习深度完全不同。

如果你只是想读懂一段代码,你需要掌握的是提问方式、文件结构、报错定位。如果你想做一个可运行原型,你就要理解需求拆解、数据流、测试验证。

再比如你想学提示词。

不要先收藏 100 个“万能 Prompt”。

先问:我具体在哪类任务上反复失败?

是写作没有观点?总结抓不住重点?分析材料太散?还是让 AI 执行任务时总是跑偏?

只有问题清楚,提示词才有意义。

否则你收藏的不是方法,只是一堆漂亮话。

边界系统的价值,就是把 AI 学习从“追内容”改成“解问题”。

你不再平均用力。

你会知道哪些东西必须深学,哪些东西只要知道有这么回事,哪些东西现在根本不用碰。

这一下,焦虑会少很多。

因为你终于不再被它牵着跑。


四、有效学习不是狂输入,而是跑完一个回路

如果只说“建立系统”,还是有点空。

我后来真正能稳定下来,是因为把 AI 学习拆成了四个动作:

深度学习、刻意练习、复盘、反馈。

这不是新词。

但放到 AI 学习里,它们会变得非常具体。

1. 先画地图,别先捡碎片

很多人学 AI 的方式,是一上来就捡碎片。

看到一个提示词收藏一下,看到一个工作流试一下,看到一个模型榜单看一下。

碎片当然有用,但不能先于地图。

我现在会先问自己,眼下到底在练哪一类能力:对话、搜索、写作、自动化、数据处理、产品原型,还是业务流程。

地图一旦出来,你就不会被每一个新工具打断。

比如你这一阶段只练“用 AI 做深度阅读”,那 ChatGPT、Claude、Kimi 都只是不同工具。你真正要比较的是:谁更适合长文理解、追问和生成结构化笔记。

这样学,才不会散。

2. 少看教程,多练关键动作

教程看多了,人会误以为自己会了。

但 AI 能力不是看出来的,是练出来的。

你要练的也不是“使用工具”这个大词,而是一个个关键动作。

比如让 AI 提炼一篇文章的核心观点,反驳你的判断,整理混乱记录,根据真实材料生成公众号大纲,或者检查一个方案里最薄弱的假设。

这些动作越具体,练习越有效。我现在很警惕那种“学了很多,但没有固定动作”的状态。

因为我自己就这么干过。

干完还觉得自己挺充实。

因为没有动作,就没有反馈。

没有反馈,就没有进步。

3. 别攒聊天记录,要攒方法

很多人用 AI 的问题,不是没有成功过。

而是成功得很偶然。这次问得好,结果不错;下次换个任务,又不知道怎么复现。

所以复盘很重要。

你每次用 AI工具 做完一个任务,都可以问自己三个问题:

  • 这次输入里,哪句话最关键?

  • AI 输出变好,是因为我补了什么背景?

  • 下次遇到类似任务,我能不能把这次经验做成模板?

这一步看起来慢,其实很省时间。因为你不是在积累聊天记录,你是在积累自己的工作方法。

4. 别迷恋输出,要看结果

AI 很容易给你一种“输出很多”的满足感。

但输出多,不等于结果好。

你让 AI 写了一篇文章,最终要看的是读者能不能看懂、有没有转发、有没有收藏、有没有人留言复述你的观点。

你让 AI 做了一个表格,最终要看的是它有没有减少你的整理时间,错误率有没有下降,后续能不能复用。

你让 AI 写一个方案,最终要看的是它有没有让沟通更清楚、决策更快。

反馈不是让你被外界评价牵着走,而是让你知道自己到底有没有真的变强。


五、普通人的机会,不是装成技术专家

很多人一听到 AI,就下意识觉得自己不懂技术,所以没机会。

我现在不太认同这个判断。

不懂技术当然会有限制。

但普通人的机会,从来不是假装自己是技术专家。

普通人的机会,是把自己原本懂的场景,重新接到 AI 上。

你做运营,就研究 AI 怎么帮你拆用户、复盘转化;你做销售,就研究 AI 怎么帮你整理线索、模拟异议;你做内容,就研究 AI 怎么帮你做选题、搭结构、找反例;你做管理,就研究 AI 怎么帮你同步信息、暴露风险、拆解目标。

OpenClaw 和 Hermes Agent 这类东西热起来,其实也在说明同一件事。

AI 正在从“你问一句,它答一句”,变成“它能带着记忆、工具和权限,在你的系统里连续做事”。

这当然很刺激。

但也更危险。

因为一旦 AI 能动你的文件、调用你的工具、接入你的账号,问题就不再是“它会不会写得更好”,而是“它该不该做、做到哪一步、出了错谁来兜底”。

这块别急着给自己贴标签。

关键不是“我会不会 AI”。

关键是“我能不能把手里的问题,变成 AI 能参与的任务”。

这里面有一个很重要的分界线。

低阶用法,是把 AI 当外包。你说一句“帮我写”,然后等它给答案。

高阶用法,是把 AI 当系统里的一个节点。你先定义问题,再拆任务,再给材料,再设标准,再看输出,再做复盘。

这两种用法,结果差很多。

前者得到的是一次性答案,后者得到的是可复用能力。

未来真正值钱的,不是一次性答案,而是你能不能把混乱问题拆成 AI 可以参与、人可以判断、结果可以验证的系统。


六、给自己 7 天,只练一个真实问题

如果你现在也处在一种状态里:

工具越收藏越焦虑,教程越看越散,模型越更新越怕落后。

那我建议你先停一下。

别急着追下一个热点。

真的,先别急。

先拿一张纸,写下四个问题:

  1. 我最近最想用 AI 解决的一个真实问题是什么?

  2. 这个问题现在卡在哪一步?

  3. 我需要 AI 帮我完成哪一段,而不是替我完成全部?

  4. 我怎么判断这次使用是真的有效?

写完之后,只选一个问题,连续练七天。不要换工具,不要追新模型,不要今天写作、明天画图、后天自动化,什么都试一点。

你可以按这个节奏来:

时间
练习动作
第 1 天
选一个真实问题。
第 2 天
整理材料。
第 3 天
让 AI 给 3 个方案。
第 4 天
反驳方案。
第 5 天
做成模板。
第 6 天
拿真实结果验证。
第 7 天
复盘并改模板。

就围绕一个真实问题,把输入、输出、复盘、反馈跑完整。

七天之后,你会明显感觉到一个变化:你不再只是知道某个工具,而是开始知道自己该怎么和 AI 协作。

这才是学习真正发生的地方。


结尾:AI 不替你思考,只会放大你的思考

AI 当然会降低很多门槛。它会让写作更快,让搜索更快,让整理更快,让原型更快。

但我越来越觉得,AI 不是让人少思考。

它是在放大思考质量。

你问题清楚,它就帮你加速。

你问题模糊,它就帮你制造更多模糊。

你有判断,它就变成杠杆。

你没判断,它就变成噪音放大器。

所以普通人面对 AI,最该练的不是追热点的速度,而是建立系统的能力。

这话可能不够热闹。

但我觉得它更接近真相。

AI 不是让你少思考,而是惩罚那些从来不思考的人。

如果你也有过“越学 AI 越焦虑”的阶段,可以在评论区留一句你现在最想解决的真实问题。

别写“我想学 AI”。

写具体一点。

因为真正的机会,往往就藏在那个具体问题里。