
最近OpenClaw刷屏,我也心动了。
我跟很多人一样,看完就幻想:要是有AI帮我自动处理工作,我有多爽?
(这是家庭进化实录第1期。从这期开始,我会持续记录一个文科零基础的人真实学AI的过程)
于是我去问了我家属,
他的第一句话是:"你现在不需要部署它。"
我追问了他很久。
以下是我们那晚的对话,以及我想明白的事。
对谈人:
欧阳:文科生,零基础在学习AI产品开发
马老师:家属,AI博士,深圳某高校副教授
欧阳
最近我也想用 OpenClaw 解决工作的问题,它到底是个啥?
马老师:
OpenClaw 本质上是agentic AI(智能体)的一个应用。
在OpenClaw 之前,其实这波浪潮是 Anthropic公司引领的。他们出了个Claude Code,定义了现在智能体的很多标准。
那为什么出圈的偏偏是OpenClaw呢?因为它做对了三件事,把它设计得更像“人”了:
第一,它有非常长期的记忆机制(通过写入本地文件)。
第二,它打破了程序员用的那种黑乎乎的命令行界面,直接跟飞书这些聊天工具做集成,降低了普通人的门槛。
第三点最重要,就是所谓的“定时任务”或者叫“心跳机制”。它会主动地发消息来问你:“我看你有封新邮件,要不要去执行处理?”
这彻底满足了一般人对于“全自动数字员工”的科幻预期。
欧阳
既然它这么好使,那我作为小白,去搞一个让它全自动帮我干活行不行?
马老师:
如果你是小白,现阶段真没必要去部署。
你想让它全自主干活,就得给它极高的底层控制权限。但现在基础大模型的能力还没到完全不出错的地步,比如它要是脑子一抽,可能就会乱删你的邮件。
这里面有个极大的坑:你要让它干复杂的活,就得给它装一堆Skills。你可以把 Skills理解成给大语言模型看的高级工作说明书,里面不仅有自然语言,甚至还有自动执行的代码脚本(Script)。
一旦Skills 装得特别多,它的“脑容量”(上下文)就会无限膨胀,接着就会出现所谓的“上下文腐烂(Context Rot)”。
你如果作为外行,不知道背后的运行机制,不知道上下文之间是怎么传递的,直接“大撒把”让它自己去全网乱搜、完全自己探索。结果不仅 Token消耗极大,最主要是结果完全不可控,出了报错你都不知道怎么修。
——我之前总觉得AI"越用越蠢",原来不是AI变笨了,是我把它的脑子塞满了。这个坑我踩过,只是不知道它有个名字。
欧阳
那照你这么说,它现在这么火,以后大家都用它了吗?
马老师:
openclaw肯定是昙花一现的,很难长久。
这种ToC的产品,最后跑出来的肯定不会是一个配置那么复杂的开源项目(甚至需要付费上面安装或者卸载)。
在这场流量狂欢里,最后收钱的肯定不是OpenClaw官方,它也收不上来钱。
真正赚到钱的、形成商业闭环的,是卖服务器沙箱的云厂商,以及卖 Token 算力的大模型公司。
但它最大的意义,是点燃了全民对于AI应用的热情,把Agent从极客圈子带到了大众圈子里。
等后面大厂密集推出傻瓜式平替产品,OpenClaw 自然就会被淘汰,有理由猜测未来会出现一堆产品叫XXclaw或者openXX。
欧阳
既然不建议部署,那我们普通人学学怎么把提示词(Prompt)写得更好,可以吗?
马老师:
提示词其实是非常次要的。现在这个年代,认知远比技能重要,因为你的“技能”已经被外包给 AI 了。
什么叫把大语言模型用得好?
用得好的本质,是你能不能把完成这个任务所需要的“最精准的上下文”给到AI。这就要求你必须对真实业务有极深的理解。
以我看学术论文来说,我很明确地知道,此时此刻应该扔给它A论文的原文,以及跟A强相关的B论文,甚至需要把相关的GitHub代码仓库扔给它。我知道完成这个任务所需的minimum context(最小上下文)是什么。
这根本不是提示词写得好不好的问题。
如果你自己对业务没有理解,让 AI 自己去瞎摸索,它只会把上下文搞得一团糟。
——我一直以为学好写提示词,我就能把AI用得更溜。现在发现还是要把自己的事情想清楚,这个话我还在消化,之后实录专门聊这件事。
所以普通人最直接的方式,是把自己的业务做好,把每个环节都拆解到位,让自己成为该业务AI化的人。
如果你实在想用openclaw,可以从claude code开始学习,它相对安全,而且从头探索你可以对智能体有更深的把控。
聊完这次,家属给我找了一门从头开始的AI开发课。
他说:从头学,才能真正搞懂智能体在干什么。
下一期进化实录,更新我第一周真实的学习感受和踩坑实录。
夜雨聆风