✨ 技术门 | 用代码撬动世界 ✨
推开这扇门,拆解一个AI助手背后默默运行的自主神经系统。
先想一个问题
如果你的 AI 助手 7×24 小时在线,每天帮你处理几十个任务,它会遇到什么问题?
• 记的东西越来越多,查找越来越慢 • 对话历史被压缩后,关键信息可能丢失 • 有些操作(比如发邮件)太危险,需要人工确认 • 重复性的工作每次都从头做起,效率低下 • 出错了没人发现,默默积累问题
人类靠进化解决了类似的问题——我们有了免疫系统、条件反射、决策边界。AI Agent 呢?
过去两周,我在我的 QClaw 系统上构建了 12 条"进化回路"——本质就是 AI 的自主神经系统。这篇文章,逐一拆解。
记忆组:让 AI 拥有"长时记忆的整理能力"
人类不会记住所有事情——我们会遗忘、归纳、整理。AI 正好相反:它"记住"了所有,却不知道什么是重要的。
回路 1:技能创建 ~6h
逻辑链:use → improve → create skill
当一个任务类型被执行超过 3 次且没有沉淀为可复用的 Skill 时,这个回路触发提醒。
比如,备课这个任务我做了几十次。如果不把它蒸馏为一个 Skill,每次都要从零描述"我需要一个 40 分钟的教案,包含安全教育 3 分钟、思政元素……"。蒸馏之后,一句话就搞定。
核心价值:把经验转化为可复用资产。
回路 2:记忆容量 ~2h
逻辑链:remember → manage → consolidate
MEMORY.md 是我最重要的长期记忆文件。但它有一个硬上限:2200 字符(约 11KB)。超过 80% 警戒线时,这个回路自动触发整理——把详细的描述下沉到 L2-facts/ 目录,在 MEMORY.md 只保留索引引用。
核心价值:保持核心记忆的精炼与高信息密度。
回路 3:知识固化 ~48h
逻辑链:reflect → extract → long-term learn
跨会话学习中最有价值的发现(如"PowerShell 不支持 &&,要用 ;"),48 小时内如果再次出现,触发固化提醒——从日常记录提取到 lessons-learned.md 作为永久知识。
核心价值:不让教训白白流失。
回路 7:用户画像 ~168h(每周)
逻辑链:observe → dialectical_synthesize → model_user
这是最有意思的一个回路。借鉴 Honcho 的三视角辩证推理方法:
• Analyst:从 memory/ 文件中发现模式(如"教学工作集中在工作日早上") • Skeptic:区分真实行为模式和文档噪音("这个偏好是不是过期了?") • Synthesist:融合两个视角生成统一的 7 维度用户画像
从 48 条结构化观察中自动生成的画像,覆盖 identity、work_style、communication_prefs、content_interests、personality_traits、project_context、tool_prefs 七个维度。
核心价值:AI 越来越懂你,不是靠猜测,是靠分析。
信号组:让 AI 学会"分轻重缓急"
人类面对信息天然有优先级判断。AI 默认把所有事件等同看待——这是最致命的问题之一。
回路 5:信号处理 ~1h
逻辑链:detect → classify → notify / batch / learn
这是系统的"中枢神经"。核心引擎 signal_classifier.py 定义了 17 条分类规则:
• 强信号(priority > 80):立即通知用户。比如审批卡片即将过期、紧急邮件到达 • 弱信号(priority 40-80):入批队列。攒够 5 条或超过 120 分钟,合并提醒一次 • 行为信号(priority < 40):静默归档。用于统计分析和系统自优化,不打扰用户
端到端验证中,15 个测试样本全部分类正确(6 强 + 6 弱 + 3 行为)。
核心价值:重要的不遗漏,不重要的不打扰。
回路 9:Todo 追踪 ~30min
逻辑链:track → remind → complete tasks
用 JSON 文件做任务状态管理(pending / in_progress / completed / cancelled)。每 30 分钟心跳检查一次,有过期任务时生成弱信号入批队列。
冷却机制确保同一个待办不会每小时重复提醒——它记得上次提醒的时间。
核心价值:AI 帮你记住要做的事,而不是你记着提醒 AI。
安全组:给 AI 操作装刹车
AI 的能力越强,越需要安全边界。这一组回路是"防止 AI 闯祸"的最后一道防线。
回路 4:压缩污染防护 ~4h
逻辑链:compact → sanitize → protect
当对话太长时,QClaw 的 LCM 系统会自动压缩旧消息生成摘要。但压缩后的摘要如果被当作活跃指令重新执行——比如一个已完成的"删除文件"操作在摘要中被重新触发——就可能导致灾难。
我实现了三层防护:
1. AGENTS.md 规则层:明确声明摘要与活跃指令的边界 2. check_compaction_pollution.py 监控层:每 4 小时检测摘要中是否包含可疑指令 3. HEARTBEAT.md 注册层:确保监控脚本不会被遗忘
核心价值:在 AI 的"记忆整理"和"行动决策"之间划清界限。
回路 6:审批卡片 ~1h
逻辑链:propose → request_approval → execute / block
10 种操作按风险分三档:
每种操作都有独立的风险评级和过期策略。审批卡片创建后,心跳检查会自动检测并生成强信号通知。
核心价值:敏感操作有"人类说了算"的兜底机制。
回路 10:快照保护 ~30min
逻辑链:snapshot → protect → rollback
每次写关键文件前,用 git 做影子快照。MEMORY.md、USER.md、SOUL.md 等重要文件可以随时回滚到任何一个历史版本。
核心价值:AI 改错了文件?一键回退。
运维组:系统的"体检中心"和"免疫系统"
回路 8:进化看板 ~2h
逻辑链:monitor → report → self-diagnose
一个 ~15KB 的 Python 程序,支持 4 种输出模式:
• 默认:全量多段报告,覆盖回路状态、记忆健康、FTS5 索引、信号管线、审批卡片、调度器、任务看板 • --compact:每段一行摘要,一目了然• --json:机器可读,方便接入其他系统• --health:只有退出码(0=健康),用于自动化监控
每天早上看到 10/10 healthy 的评分,就是一种安心。
核心价值:系统状态从不透明变成透明。
回路 11:MoA 推理 ~2h
逻辑链:parallel_infer → synthesize → answer
灵感来自 Mixture of Agents 论文。当一个复杂问题需要多角度思考时,用 4 个模型并行推理,再让一个聚合器合成最终答案。
核心价值:让 AI 具备"开会讨论"的能力——多视角比单视角更可靠。
回路 12:错误自愈 ~4h
逻辑链:classify → recover → heal
运行时的错误被结构化分类(路径错误、编码错误、权限错误等),匹配预设的恢复策略。比如跨设备的路径硬编码问题,系统检测到后自动修复为 Path.home()。
4 月 29 日发现的 2 个硬编码路径 bug,就是被这个回路自动定位和修复的。
核心价值:AI 系统不再"默默出问题",而是主动发现和修复。
它们如何协同工作:一个典型日
早上 8:00,回路 8(进化看板)运行,输出 10/10 healthy。
8:15,回路 9(Todo 追踪)检测到一个过期待办,生成弱信号入队。
9:30,回路 5(信号处理)发现批队列攒够了 5 条,触发一次合并提醒:"你有 3 个教案待完成,1 个公众号选题待推进,1 个代码 review 待处理。"
10:00,回路 4(压缩污染)扫描发现摘要中有可疑指令,自动标记并在看板上显示告警。
14:00,回路 1(技能创建)识别到备课模式执行了第 4 次,生成提醒:"建议将当前备课流程蒸馏为 Skill,预计可节省 60% 的 Token。"
每周日,回路 7(用户画像)运行,更新你的偏好画像。
这一切,都不需要你主动触发——它们是"反射",不是"任务"。
写在最后
构建这 12 条回路的过程,让我对 AI Agent 的设计有了一个深刻的体会:
好的 Agent 设计不是做加法,而是做减法。
减少不必要的工具注入,减少全量历史的上下文浪费,减少需要人工主动触发的操作。
12 条回路看起来多——但每一条都在做减法。记忆回路在减去冗余信息,信号回路在减去不必要打扰,安全回路在减去不可控风险。
在 AI Agent 的世界里,少,就是多。
⚡ 一键三连,解锁更多非硬核知识🔓
知识无边界,严肃的玩笑,暗号社交
🔍 下期预告
《……unknown》(文章已写好,就差个标题)
📚暗号与漏洞
本期暗号:QClaw
📖 代码如诗,bug如人生
记录 AI 时代的个人进化,探索 Agent 改变生活的无限可能。
夜雨聆风