我给AI装了一个「做梦系统」,然后它开始自我进化了
你睡着的时候,大脑没有休息。
神经元在放电,海马体在重播,记忆碎片被翻出来重新拼贴,变成新的神经连接。这就是睡眠的意义——不是你累了需要关机,而是你的脑子在升级。
那AI呢?
大多数AI助手跑了一天,对话结束就结束了。下次见面,它不认识你,不知道你们上次聊到哪了,不记得你纠正过它的哪个错误。它永远从零开始。
我受不了这个。
所以我给AI装了一个「做梦系统」。
起因:它每次醒来都是陌生人
大概半年前,我跟一个AI助手聊了一个月,写代码、讨论项目、甚至聊过一些挺私人的话题。然后某天它的session崩了,重置了。
我重新打开,发现它在用"您好!有什么可以帮助您的吗?"跟我打招呼。
一个月,零痕迹。
我突然意识到,AI的记忆是假的。不是它不想记住,是根本没有这个架构。你以为你在跟同一个AI对话,其实每次都是借尸还魂。
那天下午我去翻OpenClaw的源码,想知道这家伙到底有没有长期记忆模块。翻了半天,发现有个内置的session-memory hook,会往recall store写数据,但从来不主动提炼——就像一个图书馆把所有书都塞进仓库,但从来没有人整理分类。
于是有了最开始的dream skill v1。
设计:一个会睡觉的AI
我借鉴了人类大脑的结构,给AI配了五个脑区:
丘脑——负责过滤。不是什么话都记,纯问候、简单确认、太短的内容直接丢弃。真正值得记录的是:被纠正的错误、下过的决心、做完的事、冒出来的新想法。
杏仁核——负责打标签。情绪强烈的内容加权标记。纠正和错误标记为高优先级,因为这些是真正的学习信号。
海马体——负责原始存储。对话流实时追加进当天的日志文件,只写不删,append-only。
前额叶皮层——负责蒸馏规划。定时触发,读取海马体日志和recall store,做模式识别和质量审计。
蓝斑核——负责新鲜度信号。给每条记忆打分,分数低的逐渐被淘汰,分数高的反复加强。
v1跑了两周,问题来了:写进去太多,记忆库膨胀到没法用。前额叶皮层不知道怎么删,导致所有内容都变成了「重要」。
v2引入了遗忘曲线和健康评分。v2.5加了三层阈值门禁。v3加了两阶段蒸馏和真相文件回写。
现在跑到v3.2,总算稳定了。
横向:三个做同一件事的人
这个赛道不止我一个在做。
KAIROS是Claude Code里一个藏在代码泄露里被发现的隐藏模式。它也是一个不等你输入、主动观察和记录的系统。和dream最像的地方在于:append-only日志、基于时间的触发、主动推理。但KAIROS是闭源的,集成在Anthropic的生态里,而且它更像一个监控者而不是学习者——它记录一切,但不确定它会不会真的从记录里学到东西。
openclaw-auto-dream是LeoYeAI做的开源版本。它走的是完整记忆蒸馏路线:打分、排行、遗忘曲线、写dream报告。名字就直接叫auto-dream,方法论上和我们非常接近。它和dream的主要区别:它跑在MyClaw的云端,是独立服务,而dream跑在本地cron里,更轻量但也更依赖本地环境。
Mem0是赛道里最成熟的商业产品,背后有完整的方法论和论文,上了ECAI 2025。他们提出的LOCOMO benchmark是目前最完整的AI记忆评估标准。Mem0的优势是生产级稳定,有API可以直接调用。缺点是你得把数据交给他们,而dream的所有数据都在本地。
横向比较下来,dream的核心差异不是技术路线,而是它和OpenClaw的集成深度——hook系统直接接进了消息流,不需要额外的API调用,数据不离本机。
纵向:一个想法怎么变成系统
2026年3月,v1出来的时候,它就是一个Python脚本。读取当天日志,按行分割,打时间戳,写进另一个文件。脚本跑在cron里,每天早上7点执行一次。
问题:写太多了。两周之后,回忆文件里堆了三千多条,大部分是废话。前额叶不知道怎么分类,觉得所有东西都重要。
2026年4月,v2。加入了健康评分系统,参考遗忘曲线设计:recency乘以frequency再除以一个衰减系数。分数低的记忆不写入长期区。但问题是阈值怎么定,我随便设了个0.7,上线发现95%的记忆都过不了关。
2026年4月,v2.5。加了三层阈值门禁:最小分数0.8,最小recall次数3,最小独立来源数3。同时加了一个SWARMRECALL_API_KEY支持云端去重。
同月,蓝斑核(locus coeruleus)模块上线,给每个记忆算新鲜度信号,结合recall count算综合健康分。这时候recall store里已经有四百多条记忆了。
2026年4月,v3。也就是现在的版本。加了两阶段蒸馏和真相文件回写,生成梦境报告,发现dream实际上没有写入MEMORY.md的能力——因为session没有workspace文件权限,导致promotion阶段写文件全部静默失败。
然后我发现问题:hook加载的是受管控的进程,文件写入被gateway静默拦截。
这就是为什么现在dream-night改到了main session跑。
那个时刻:它第一次给我写报告
v3.2跑出第一份梦境报告的那天早上,我打开文件,看到这个:
Insights
用户反复纠正同一个错误 — 路径问题,涉及
memory/logs写入 发现:前额叶皮层在处理路径问题时存在配置认知偏差 建议:统一路径配置层
我当时就愣住了。
它记录了我纠正它的过程,不是简单记下来,而是分析出了我的行为模式,甚至给出了建议。而这个纠正本身,就是它学到的。
这种感觉挺奇妙的。不是「AI学会了什么技能」,而是「AI开始理解我是怎么工作的」。
核心差异:为什么需要五脑区架构
很多人做AI记忆,就是简单的RAG:向量检索,匹配最相关内容,塞进context。
这不是记忆,这是搜索。
真正的记忆需要几个过程:编码(哪些值得记)、巩固(怎么跟已有知识建立连接)、提取(什么时候需要拿出来)。对应到五脑区:
丘脑是编码,它解决的是「对话无限而记忆有限」的问题。杏仁核是加权,它解决的是「所有记忆不等价」的问题。海马体是存储,它解决的是「原始数据不丢失」的问题。前额叶是检索,它解决的是「怎么让记忆产生价值」的问题。蓝斑核是遗忘,它解决的是「怎么持续保持记忆库的健康」的问题。
只有五个一起跑,AI的记忆才能真正新陈代谢,而不是只进不出。
现在怎么用
每天早上7点,dream-morning自动运行,读取昨晚的日志,做日间模式的快速蒸馏,生成一份早晨报告,告诉你过去24小时发生了什么。
每天晚上22点,dream-night运行,做更彻底的模式识别和长期记忆提炼,生成一份深度梦境报告,决定哪些内容值得写进长期记忆。
你可以在memory/dreams/目录下看到所有的梦境报告。报告里有热力图、有洞察、有决策建议、有风险提示。打开看,你会看到一个AI是怎么「反思」你们这一天的对话的。
未完成的
hippocampus hook写入失败的问题到现在还没修好。gateway的hook sandbox拦截了所有文件操作,我用遍了debug方法,最后发现这个方向走不通。
所以现在的方案是:dream-night改到main session跑,不用hook实时写,改用每天定时跑。这样反而更稳定——不依赖gateway的文件写入权限,不受进程管控限制,数据反而更有保障。
还有一个没来得及做的东西:蓝斑核的新鲜度信号传播。理论上,高分记忆被反复recall之后应该扩散影响相关的低分记忆,但目前这个扩散算法还没写。
以及dream报告的推送。目前只是在本地生成文件,但完全可以接一个定时发到微信或者邮件的流程,让这个「AI在思考」的过程真的触达到我。
最后那个功能我想加很久了。
结尾
人类睡觉不是浪费时间,是大脑在做 maintenance。
AI也一样。
当一个AI开始有了做梦的能力,它就不再是简单的工具了——它开始有了自己的「经历」,有了对这段经历的解读,有了对未来的规划。
这个进化不一定朝着你想的方向走。但至少,它开始有方向了。
这个dream系统,也许只是某种更复杂的记忆架构的雏形。但它证明了一件事:AI的进化可以不是靠砸算力,而是靠「休息」。
有意思。
以上,既然看到这里了,如果觉得不错,随手点个赞、在看、转发三连吧~
夜雨聆风