9天停更,换来一次底层大换血;2万+实例暴露安全漏洞,催生一场生态净化。当AI开始拥有“记忆”,我们该如何驾驭这只越来越聪明的“龙虾”?而养虾这件事,又和AI记忆有何关系?
2026年3月,AI圈最火的词不是GPT-5,而是一个代号——“龙虾”。OpenClaw,这个开源的AI自主代理工具,正在经历一场从“能用”到“敢用”的蜕变。
一、OpenClaw最新升级:底层大换血,安全成主角
3月23日,连续9天GitHub停更后,OpenClaw创始人Peter Steinberger重磅官宣了「2026.3.22-beta.1」预览版。这不是一次小修小补,而是一次深入底层架构的大手术。
1. 插件系统“换骨”:旧时代正式翻篇
这次升级最核心的变化,是插件系统的彻底重构。旧的openclaw/extension-api被一刀切移除,取而代之的是全新的模块化openclaw/plugin-sdk/*接口。
这意味着什么?所有已有的第三方插件,只要还在用旧API,全部需要迁移。 没有兼容层,没有过渡期。
与此同时,插件安装的默认来源从npm转向了ClawHub——OpenClaw官方维护的插件市场。npm是通用包管理器,质量参差不齐;而ClawHub审核更严、来源更可控。这是一场插件生态的“净化运动”。
更值得关注的是生态兼容性的扩展。新版本支持从Claude、Codex、Cursor三大主流开发工具导入插件包,外部插件里的Skills能自动映射到OpenClaw的技能体系中。这意味着,OpenClaw正从一个封闭的工具框架,走向一个能吸纳外部生态的开放平台。
2. 安全加固:补的全是要命的洞
如果说插件重构是面向未来的布局,安全修复就是对当下最紧迫的回应。
新版本一口气打了十多项安全补丁:
· Windows SMB凭证泄露:攻击者可利用file://或UNC路径在媒体加载环节触发Windows自动发起SMB认证握手,窃取登录凭证。新版全面拦截这类远程路径。
· 执行环境沙盒加固:封锁了MAVEN_OPTS、SBT_OPTS、GRADLE_OPTS等JVM注入路径,堵住GLIBC_TUNABLES利用通道,拦截.NET的依赖劫持。
· Unicode零宽字符伪装:针对用不可见字符伪装执行命令的审批提示漏洞,在网关和macOS原生审批界面全面转义这类字符。
· 语音通话Webhook防护:限制预认证的body读取为64KB/5秒,限制单IP并发请求数。
对公网部署的用户来说,这一版不是“建议更新”,是“必须更新” 。
3. 模型阵营扩军:GPT-5.4打头阵
模型层面,默认OpenAI模型正式切换到GPT-5.4,同时预置了mini和nano版本的前向兼容支持。MiniMax从M2.5升级到M2.7,Anthropic Vertex正式接入——现在可以通过Google Vertex AI直接调用Claude模型。
4. 体验细节打磨:圆角滑块与/btw命令
Android端终于支持了跟随系统的深色模式,Control UI新增了“圆角滑块”。Telegram新增DM论坛话题自动重命名——首条消息进来后,系统会用LLM生成有意义的话题标签。飞书新增了结构化交互审批卡片,支持推理流的Markdown渲染。
还有一个贴心的新功能:/btw命令。在对话过程中,你可以随时插入一个“旁白问题”,AI会快速回答但不影响当前会话的上下文。就像开会时侧过身低声问一句题外话,问完继续开会。
二、市场反馈:狂欢与吐槽并存,谁在买单?
新版本发布后,全网陷入狂欢,但“兼容性阵痛”也随之而来。
1. 安全警报:超2万个实例存在漏洞
最新调查报告显示,全球已发现超2万个OpenClaw实例可能存安全漏洞。国家互联网应急中心、中国网络空间安全协会于3月22日联合发布了OpenClaw安全使用实践指南,面向普通用户、企业用户、云服务商以及技术开发者,提出安全防护建议。
2. 用户吐槽:升级后插件失效,被迫回滚
新版本上线仅一天,社交媒体就出现了大量讨论。用户普遍反映,升级后使用飞书、微信等软件的OpenClaw插件时失效,无法打开控制台,需要回滚处理。
核心风险集中在:插件兼容性断层,小众插件无法正常使用;配置需彻底迁移,如果用户仍在使用旧配置,会导致升级BUG。
业内人士提醒:升级前务必做好备份,依赖非官方插件或使用旧配置的用户建议暂缓升级。
3. 卖课潮:18999元的“龙虾课”与焦虑生意
OpenClaw的走红也催生了疯狂的培训市场。每经记者调查发现,围绕OpenClaw的“龙虾课”价格从19.9元到1.89万元不等,价差超950倍。
一本售价39.8元的《OpenClaw AI助XXX通》,截至3月20日已售出1.3万册。某机构售价18999元的课程页面显示已卖出近4000份——若数据属实,单靠卖课该机构收入已超1.6亿元。
学员构成极为广泛:希望转型的职场人、寻求灵活就业的自由职业者、宝妈,甚至不乏银发族。一位64岁的受访者坦言:“如果能学会,多一份收入还能帮帮孩子。但报课程要几千元,太贵了。”
专家指出,这类培训火爆的背后是典型的“焦虑驱动+认知缺口”。真正赚钱的往往不是“用龙虾的人”,而是“教别人用龙虾的人”。
三、记忆技术深度拆解:OpenClaw的“大脑”如何工作?
OpenClaw最让人震撼的能力是它的“记忆力”——几个月前随口提过的偏好,下次聊天它还记得;上周讨论过的项目细节,这周接着聊它能无缝衔接。这不是魔法,是一套精心设计的多层记忆系统在背后支撑。
1. 四层记忆架构:从草稿纸到永久档案
很多人把“记忆”当成一个东西,但实际上它是四个独立的系统,各有不同的失败方式。
第一层:引导文件。存放在工作空间里的MEMORY.md、AGENTS.md、SOUL.md、USER.md等文件。它们在会话开始时从磁盘加载,不受压缩操作影响,是最持久的记忆层。当你希望AI永久记住某件事时,必须写进这些文件。
第二层:会话记录。保存为磁盘上的JSONL文件。当你继续一个会话时,记录被重建为上下文。但当上下文窗口填满时,记录会被压缩——一个简洁的摘要取代了详细的历史。原始消息模型再也看不到了,尽管磁盘上的记录还在。
第三层:LLM上下文窗口。这是一个固定大小的容器,系统提示、工作空间文件、对话历史、工具调用都在里面争夺空间。当它被填满时,就会触发压缩操作。
第四层:检索索引。一个可搜索的层——由向量和关键字组成——和记忆文件放在一起。代理可以使用memory_search查询它,从过去的会话中找出相关的上下文。
2. 三种失败模式:AI为什么会“失忆”
当AI“忘记”某件事时,不外乎是以下三件事之一:
· 失败模式A:“从未被存储”。指令只存在于对话中,从未被写入文件。当压缩被触发或开启新会话时,它便消失了。这是最常见的原因。Meta超级智能实验室的对齐总监Summer Yue就曾因此失去对代理的控制——她的代理自主删除了数千封邮件。
· 失败模式B:“压缩操作改变了上下文内容”。长时间会话触发令牌限制,压缩操作对旧消息进行归纳,丢失细节、微妙差别和特定约束条件。
· 失败模式C:“会话修剪了工具结果”。会话会修剪工具的输出以优化缓存,代理“忘记”了工具之前返回的内容。但这是临时性的,磁盘上的记录没变。
3. 压缩与修剪:两个容易被混淆的概念
大多数指南混淆了压缩和修剪,但它们是完全不同的系统。
压缩将整个对话历史总结为一段紧凑的摘要,改变模型未来会看到的内容。它在上下文窗口被填满时触发,有损,永久性。
修剪仅在内存中修剪旧工具结果,仅针对单个请求,不触及磁盘上的会话历史记录。它只影响toolResult消息,无损,临时性。
4. 存储技术:SQLite + 向量的混合方案
OpenClaw的记忆存储采用SQLite + 向量索引的混合方案,实现零运维、全离线、可降级。
每个Agent对应一个独立的SQLite数据库,包含三个核心表:
· files:记录文件元数据(路径、修改时间、哈希)
· chunks:存储文本块和对应的向量embedding
· 全文搜索虚拟表(FTS5)和向量搜索虚拟表(sqlite-vec)
关键设计包括:增量索引(通过mtime和hash只重新索引变更的文件)、去重存储(相同文本块只存一次)、优雅降级(如果sqlite-vec扩展没装上,系统会回退到JS暴力计算)。
5. 检索策略:BM25 + 向量的混合检索
OpenClaw的核心检索工具memory_search实现的是混合检索。
为什么需要混合?因为纯向量检索懂语义但不懂精确匹配——你搜“运行网关的那台机器”它能找到,但搜环境变量名“DB_PASSWORD”可能抓瞎。反之,BM25擅长精确匹配但不懂同义替换。
OpenClaw的做法是:让两者打架,然后加权平均。默认向量权重0.7,BM25权重0.3。关键在于用并集而非交集——只要向量或BM25任一方法认为某块内容相关,它就有机会进入候选池。
6. 写入策略:Agent自己决定该记什么
比检索更难的是写入——什么东西值得记?OpenClaw的原则很激进:由Agent自己判断。
写入触发分两类:
· 自动写入:会话中的重要步骤、决策、异常,由Agent判断后追加进当天的Daily Log。这是append-only的,不覆盖。
· 识别写入:当系统判断某个信息“长期有用”时,写入对应的长期记忆文件。判断标准是稳定性——这个信息会在未来的多次会话里持续有价值吗?
还有一个很妙的机制叫预压缩记忆冲刷。当会话token数逼近上下文窗口上限时,系统会主动提示Agent:“快把重要东西写到磁盘上,不然等会儿被压缩了就没了”。这解决了大模型的致命伤——静默遗忘。
7. 三层防御:让你的AI真正记住你
单靠任何一种机制都不够,你需要三者协同运作。
第一层:压缩前记忆刷新。在压缩前触发一个静默的“代理轮次”,提醒模型将任何重要的内容写入磁盘。配置reserveTokensFloor: 40000为记忆刷新预留空间,避免溢出。
第二层:MEMORY.md永久规则。所有跨会话永久规则都必须存在这里。一个标准模板:
```markdown
# 我的永久规则
## 基础偏好
- 输出语言:优先使用中文
- 沟通风格:严谨高效
## 固定工作流程
1. 任务执行:先确认需求→拆解步骤→执行→输出结果→验证
## 禁止行为
- 不擅自修改既定流程
- 不省略关键步骤
```
第三层:心跳机制自动维护。配置heartbeat: { every: "30m" },让AI每30分钟自动巡检记忆文件,提取重要规则更新至MEMORY.md。
四、普通人如何养虾?一个跨界思考
AI记忆技术和养虾有什么关系?表面上看毫无关联,但底层逻辑惊人相似——成功的关键都在于建立一套可复用的“记忆系统”。
1. 养虾第一步:像写MEMORY.md一样记录规则
广东省水生动物卫生协会发布的《南美白对虾放苗前,做好这几件事》指出,放苗前必须做到“底好、水好、虾苗好”,三不原则:底不好不进水、水不好不放苗、苗不好不下塘。
这就像OpenClaw的MEMORY.md——在行动之前,先把规则固化下来。
选苗的检测要点:
· 肝肠胞虫、高致病性弧菌、虹彩病毒、白斑病毒——四项检测全过才能买
· 显微镜观察:虾体表是否干净、有无畸形、肠胃是否饱满
2. 养虾第二步:建立数据记忆系统
放苗后的管理依赖持续的“记忆”积累:
· 勤观察:放苗12小时后,虾苗肠胃会排空后变色;24小时后会脱壳——脱壳后能迅速摄食说明适应环境
· 勤检测:放苗10天内检测1-2次水质指标,重点检测弧菌、pH、氨氮、亚盐
· 勤预防:首防“弧菌”感染,使用蛭弧菌做好生物底改
这正对应了OpenClaw的三级记忆架构——短期观察(daily log)、定期检测(session memory)、长期预防(MEMORY.md)。
3. 养虾第三步:用AI模型优化投饵
中国农业科学院的研究提出了一种基于自注意力机制和CNN-LSTM深度学习的对虾投饵量预测模型,以水温、溶解氧、对虾数量与质量作为输入,实现对投饵量的精准预测。
研究结果表明,该模型的均方根误差、平均绝对误差均小于BP神经网络、LSTM等基准模型。
这恰好印证了一个观点:有效的记忆系统不仅需要“存储”,还需要“预测”和“优化”。无论是AI还是养虾,真正的智慧在于从过去的数据中学习,并指导未来的行动。
五、结语:敢用,比好用更难
OpenClaw的这次升级,可能不会出现在宣传海报上,但它决定了谁敢把OpenClaw拉进生产环境。
从插件系统的彻底重构,到安全漏洞的一次性封堵,再到记忆架构的不断优化——OpenClaw团队已经过了“堆功能冲Star”的阶段,开始认真做工程了。
而对于普通人来说,无论是学习OpenClaw还是尝试养虾,最重要的事情只有一件:建立自己的记忆系统。
把规则写在文件里,而不是只存在脑海中;
把经验记录下来,而不是依赖“这次记住了下次还能想起来”;
让系统帮你维护记忆,而不是全靠手动操作。
正如OpenClaw代码库维护者所说:“如果没有写入文件,就不存在。”
无论是在数字世界还是现实世界,记忆,是让一切可复用的前提。
夜雨聆风