OpenClaw在GitHub上拿了25万颗星,一堆人吹它能当你的全时AI助手。但一个亲眼看着上千个实例跑起来的人说,它唯一真正能稳定工作的,就是每天早上给你发个新闻摘要。
- 我们监控了大约一千个OpenClaw部署,和那些投入数周时间想让它工作的工程师、创始人聊过,发现没有一个站得住脚的合法用例。
- 核心问题是记忆不可靠,而且你无法预知它何时会忘记关键信息,这导致任何需要持续跟踪的任务都充满风险。
- 唯一被验证有效的场景是:自动抓取你关心的新闻,生成摘要,然后通过WhatsApp在早上发给你。但这用个定时任务加任何LLM API都能实现。
故事是怎么开始的
我们在云上做基础设施,用户经常在上面开Linux虚拟机。之前我们做了个视频,展示怎么大概7分钟在一个隔离的VM上部署OpenClaw,结果视频火了。从那以后,我们这边大概部署了一千个OpenClaw实例。
我也跟圈子里一堆all in OpenClaw的人聊过,都不是周末玩玩的那种,是花了好几个星期想让它真正派上用场的工程师和创始人。结果我发现,一个能经得起推敲的用例都没有。
“不是说OpenClaw是假的——它是个真实的软件。它能安装,能运行,能连你的通讯应用,能和Claude、GPT对话,能执行shell命令。技术是存在的。”
但当我观察人们到底用它做什么时——从我们上千个部署,从和圈内人的对话,从LinkedIn和Twitter上泛滥的帖子——我找不到一个用例能在仔细审视下成立。
问题出在哪儿?记忆是硬伤
核心问题就一个:记忆,所有其他问题都由此而来。 OpenClaw设计成一个持久的智能体,是你全天候的助手。但它的记忆不可靠,最糟的是——你不知道它什么时候会出问题。
比如你在策划一个生日派对。三个人答应了,一个人拒绝了。你让OpenClaw发个更新邮件。它一直跟着整个对话,有上下文——但它忘了那个人拒绝了。结果所有人都收到了错误信息,而你没发现,因为本来你就不该去检查它的每一个输出。

一个你每次都要去验证的自主智能体,说白了就是个步骤更复杂的聊天机器人。
这可不是下一个版本就能修的bug。这是OpenClaw管理上下文方式的根本性限制。智能体运行着,上下文被填满,事情就被忘了。有时忘掉的是重要的事。在造成损害之前,你永远不知道它会忘掉哪些事。
那“我用OpenClaw自动化了整个团队”是怎么回事?
我仔细研究了很多这类帖子。每次不外乎两种情况:要么他们做的东西用普通AI工具(Claude、ChatGPT之类的)本来就能做,要么就是个技术上能跑一次但没人会真的用于实际工作的演示。
讲真,因为OpenClaw内容现在有流量,所以人们就生产OpenClaw内容。但这不意味着那些用例是真实的。
那到底要不要折腾呢?如果你有个空闲的周末,并且喜欢捣鼓新技术,OpenClaw是个迷人的实验。它的方向是对的,让智能体在真实电脑上做真实的事是未来的趋势。但目前的执行还不到位。在记忆真正可靠工作之前,其他大部分都是表演。
留言聊聊
你觉得自主智能体目前最大的障碍是技术本身,还是我们还没找到对的“杀手级”应用场景?
来源:Reddit LocalLLaMA|原文:OpenClaw has 250K GitHub stars. The only reliable
夜雨聆风