卸载小龙虾,安装 Hermes:为什么你的 AI Agent 用了40天还是个”废物”?
当所有人都在卷存储和执行的时候,真正的 AI 助理应该学会”成长”
用小龙虾 40 多天,优化了记忆、调整了 Skill,但第 40 天和第 1 天没有太大区别。
一句话总结:小龙虾没有记忆,只有仓库。它不会成长,只会堆砌。
这不是标题党。这是我在真实场景中踩坑 40 天后的血泪复盘。当前 AI Agent 领域最大的一个谎言—— 你以为在”训练”AI,其实你只是在往一个不会消化的胃里塞东西。
// 01 所有 Agent 都在卷”存储”,没人在卷”成长”
小龙虾(OpenClaw)的模式是这样的:碎片信息存 MEMORY.md,SOUL.md 定义人格,Skill 按步骤执行。看起来很合理,甚至很”专业”。
但这些全是静态的。
MEMORY.md 越写越长,但它不会自己提炼 SOUL.md 是你手写的,它不会自己进化 Skill 是你配的,它不会自己创造
说白了,小龙虾是多 Agent 编排系统。组织 AI 协同工作它擅长,但”理解用户”这件事,天花板很低。这不是 bug,是这一代 Agent 的设计局限。
大多数人用小龙虾的常态:自己工作没想明白,工作流也梳理不出来,记忆体系没重构,最后要么记不住,要么越记越乱。
// 02 Hermes 的四层记忆:让 Agent 越用越聪明
Hermes 是 Nous Research 开发的开源自改进 AI Agent。它的核心理念完全不同——不是让用户去管理 AI 的记忆,而是让 AI 自己学会管理记忆、压缩记忆、进化记忆。
Prompt Memory(常驻层)
MEMORY.md + USER.md 注入系统提示,硬限制 3,575 字符。不是随便设的,是刻意逼 Agent 做精炼而不是堆砌。对话中改的记忆要到下一次会话才生效,防止临时信息污染上下文。
FTS5 Session Search(检索层)
每次对话存 SQLite,全文检索索引。Agent 需要时去搜,结果经 LLM 摘要才注入——不塞整段历史,只拿相关内容。
Skills(程序性记忆层)
渐进式加载:默认只加载名称和摘要,完整内容按需调。200 个 Skill 和 40 个 Skill 的 Token 成本几乎一样。
Honcho(被动用户建模层)
Agent 在交互中自动追踪你的沟通风格、偏好、领域知识,通过方言式建模在 12 个身份层上持续进化。你不用写任何东西,它在观察你。
四层加在一起的效果:Agent 越用越聪明,Token 账单不会跟着涨。
// 03 三大核心差异:为什么 Hermes 值得一试
闭环学习
小龙虾的 Skill 是手动创建的,不会学任何新东西。Hermes 不一样——当任务满足触发条件(5 次以上工具调用、错误恢复、用户纠正),Agent 会自动创建 Skill 文件,记录”这条路走通了,下次不用重新摸索”。这些 Skill 还会通过 patch(而非 rewrite)自我改进,只改变化的部分。
Token 压缩
小龙虾的压缩要么丢要么全塞。Hermes 用辅助模型在 context 接近上限时触发压缩,提取关键内容到 3,575 字符限制内,中间轮次做摘要而非丢弃。关键是保留了 Lineage 链——压缩后可以追溯回原始对话,不是不可逆的信息丢失。
Gateway 一体化
小龙虾的 Gateway 只管消息投递。Hermes 的 Gateway 是学习闭环的一部分:消息进来可触发 Skill 创建,定时任务输出通过同一层路由回去。Telegram 开始的对话可以在终端里继续,因为 Session 绑定 ID 不绑定平台。
// 04 从 Claude Code 泄露看:记忆架构才是核心战场
2026 年 3 月,Anthropic 意外泄露了 Claude Code 的完整源代码——51.2 万行 TypeScript,1900 个文件。这次泄露揭示了一个关键事实:
Anthropic 的工程师花大量时间解决的核心问题,不是”怎么调用 API”,而是”怎么在有限的上下文窗口里,让模型尽可能聪明地工作”。
Claude Code 的三层自修复记忆架构(MEMORY.md 索引层 + 主题文件按需加载 + 原始对话 grep 检索),以及代号 KAIROS 的自主守护进程模式——在用户空闲时自动进行”记忆整合”,合并零散观察、消除逻辑矛盾——这和 Hermes 的设计哲学惊人地一致。
行业共识正在形成:AI 编程助手的下一步不是”更快地回答问题”,而是”在你没有问问题的时候,就已经在工作”。谁先把这种主动式、成长型的记忆架构做出来,谁就可能定义下一代产品形态。
// 05 什么才是好 Agent?一个反共识的答案
我 100% 确定,Hermes 一定不是最优解,但它是当前阶段最适合解决我的问题的 Agent。好 Agent 是能无缝和自己配合解决自己需求的贴身助理,不是热点,不是流量,不是人云亦云。
这段话值得所有追热点的人停下来想一想。我们来拆解一下,选择一个 AI Agent 到底应该看什么:
看成长性
用了30天后,它比第1天更懂你吗?
看Token效率
对话越长是越贵越慢,还是智能压缩?
看闭环能力
它能从错误中自动学习,还是重复犯错?
看场景适配
它解决的是你的问题,还是大多数人的问题?
// 06 2026 年 Agent 趋势:从工具到伙伴
Gartner 将 Agentic AI 列为 2025 年顶级技术趋势第一名。IDC 预测到 2026 年,50% 的中国 500 强数据团队将使用 AI Agent。但数字背后的真正变化是什么?
从「响应式」到「主动式」—— Agent 不再等你发指令,它在后台持续工作
从「静态记忆」到「成长型记忆」—— 记忆不再是文件,而是可进化的认知图谱
从「单 Agent」到「Agent 集群」—— 多个专精 Agent 协同,各司其职
从「通用能力」到「垂直深耕」—— 垂直 Agent 市场规模可能是 SaaS 的 10 倍
写在最后
Agent 好不好,一定是你弄懂了而不是别人说清了。不要追热点,要追自己的需求。不要迷信框架,要理解原理。
可话说回来了,你都没把 Claude Code 整明白,没有全面拥抱 AI,搞这些 Agent 的意义又在哪里?
关注我,获取更多 AI 前沿洞察
夜雨聆风