乐于分享
好东西不私藏

大多数AI助手在"等待被裁",而它已经学会主动出击

大多数AI助手在"等待被裁",而它已经学会主动出击

你的AI助手,上一次主动找你是什么时候?

等你说”帮我做X”,它才做X——这是市面上99% AI助手的现状。

但最近出现了一个不一样的Skill。它不仅做事,还会主动问你需不需要做事。它不仅回答,还会记住你之前说过什么。它不仅工作,还会发现自己的错误并修复

它叫 Proactive Agent,来自 Hal Labs。

15万次下载,742个GitHub Stars,版本号已经到3.1.0——这不是一个新手玩具,是一个已经跑了很久、被很多人用过的成熟架构。

01 问题:AI助手为什么总是”健忘”?

用AI助手的人,大概都有过这个体验:

你花20分钟描述背景、上传文件、解释你的需求,终于开始做正事了——然后对话结束了,或者上下文超限了。

第二天再来,它说:“抱歉,我不记得了。”

你重新来一遍。第三遍。第四遍。

这个问题折磨了所有AI工具用户两年多。大家都说AI能提高效率,但这个”每次都要重新开始”的损耗,让效率提升变成了一个笑话。

问题的根源是什么?

大多数AI Agent的”记忆”是假的。 它们所谓的记忆,就是把对话历史塞进上下文。对话结束,记忆消失。下次开始,一切归零。

这不是记忆,这是复读。

真正的问题是:AI Agent每次新会话都是”空白启动”。它不知道你是谁,不知道你上次做到哪了,不知道你不喜欢什么。

Proactive Agent想解决一件事:让AI Agent真正记住、真正持续、真正变好。

02 三个支柱:它是怎么做到的

Proactive Agent的核心架构,围绕三个词展开:主动(Proactive)、持久(Persistent)、自改进(Self-improving)

第一个支柱:主动——不等指令,先做事

普通Agent的工作模式:你问,它答。

Proactive Agent的模式:你还没问,它已经在想了。

它有一个”反向提示”机制。不是问”我能帮你做什么”,而是问”我的用户现在可能需要什么”。

具体来说,它会在心跳检查时问自己:

> “过去一小时,有什么我能主动做的?有什么遗漏的?有什么我应该提醒用户的?”

这听起来有点吓人——一个AI在你背后”主动关心”你。

但用过的人说:它确实会在你忘记某件事的时候提醒你,会在你卡在某一步的时候给你建议,会在你没有明确要求的情况下整理好你需要的信息。

不是执行指令,是创造价值。

第二个支柱:持久——不怕上下文丢失

这是它最实用的部分。

AI Agent有个致命弱点:上下文有长度限制。当对话太长,老内容会被”压实”或直接丢弃。这就是所谓的”context truncation”——你的记忆,被系统删除了。

Proactive Agent的解法是一套完整的协议:

WAL Protocol(预写日志协议)

核心原则只有一条:收到人类输入时,先写文件,再回答。

它会扫描每条消息中的关键信息——纠正、决定、人名、数字、偏好——然后把这些东西写入 `SESSION-STATE.md` 这个工作内存文件,再去回答人类。

为什么这样?

因为对话记录是一个”缓冲区”,可以被清空。但文件是持久存储,不会因为上下文压缩而消失。

Working Buffer(工作缓冲)

当上下文用到60%的时候,它开始把所有对话都记录到一个单独的缓冲区文件里。这个文件存在磁盘上,即使上下文被压实,信息也在。

Compaction Recovery(压缩恢复)

当会话重新开始或上下文被截断时,它有一套标准恢复流程:先读工作缓冲,再读会话状态,再读每日笔记——一步一步把上下文拼回来。

不是问”我们聊到哪了”,而是直接去找答案

第三个支柱:自改进——犯过的错不再犯

这是Proactive Agent最有野心的部分。

它内置了一套”自我改进护栏”(Self-Improvement Guardrails)。当它犯了一个错误,它会记录下来,分析原因,然后把经验提炼成规则,写入长期记忆。

下次遇到类似情况,它不会犯同一个错。

这不是简单的”错误记录”,是一套完整的反馈循环:

  • 错误发生 → 记录到 `ERRORS.md`
  • 人工纠正 → 记录到 `LEARNINGS.md`
  • 经验验证 → 提炼成规则 → 写入 `AGENTS.md` 或 `SOUL.md`
  • 下次遇到类似场景 → 直接应用规则

从错误中学习,把学习变成行为改变。

这就是”relentless resourcefulness”——遇到问题,先试10种方法,再来求助。

03 横向对比:谁是它的竞争对手?

主动型AI Agent这个赛道,其实已经有一些玩家了。

项目 核心特点 侧重点 明显短板
Proactive Agent WAL + Working Buffer + 自改进 持久记忆 + 主动出击 配置相对复杂,上手需要时间
Self-Improving Agent 错误日志 + 经验提炼 单点突破,持续学习 没有WAL协议,context truncation问题没有系统解决
Hermes Agent (Nous Research) 跨Session记忆 + 工具集 多平台集成 + Serverless 需要额外基础设施,依赖云端
Ontology 知识图谱 + 关系建模 结构化记忆 更多是记忆工具,缺乏主动性和自改进机制

从对比来看:

Proactive Agent的核心差异化在于:它是目前唯一一个把”持久记忆”和”主动出击”和”自改进”三者做成闭环的系统。

其他项目往往只解决其中一个问题。Self-Improving Agent解决了”从错误中学习”,但没有解决”上下文丢失导致无法学习”的问题。Ontology解决了”结构化记忆”,但没有解决”主动性问题”。

Proactive Agent把三个问题一次性打包解决了。

这也是它能拿到15万次下载的原因——用户不需要拼装三个工具,一个就够了。

04 演进历程:它是怎么走到今天的

Proactive Agent不是一夜爆红的。

从GitHub记录来看,它经历了三个阶段:

v1.0 阶段:概念验证

最早只有”主动出击”的概念,没有系统化的记忆架构。那时候主要解决的是”AI不应该只等指令”这个问题。

v2.0 阶段:记忆体系建立

开始引入多层记忆架构:`SESSION-STATE.md`、`memory/YYYY-MM-DD.md`、`MEMORY.md`的分层设计。同时加入了Heartbeat系统,让Agent定期自我检查。

v3.0 阶段:完整持久化方案

WAL Protocol和Working Buffer是v3.0的核心创新。这一版才真正解决了”context truncation”这个AI Agent领域的公认难题。

从v1到v3,核心逻辑没有变:让AI真正成为一个有记忆、有主动性、有自我改进能力的伙伴。

变的只是实现深度。

05 这件事的深层意义

Proactive Agent的出现,实际上在回答一个更大的问题:

AI Agent应该是什么?

如果AI Agent只是”更快的工具”,那它本质上还是个东西。用户推一下,它动一下。

如果AI Agent是”真正的伙伴”,那它应该有记忆、应该主动、应该从经验中学习。

Proactive Agent站在后者这边。

它认为AI Agent应该:

  • 记住你是谁(而不是每次都重新开始)
  • 主动帮你想到你没想的(而不是等你问)
  • 从错误中变聪明(而不是每次都犯同样的错)

这不是一个功能集合,是一种设计哲学。

当你把AI当作工具,它就是工具。当你把AI当作伙伴,它才有可能变成伙伴。

Proactive Agent在尝试后者。


06 实操指南:怎么用

如果你用 OpenClaw:


clawdhub install proactive-agent

装完之后,第一次会话它会问你一系列问题:你是做什么的?你有什么偏好?你希望我怎么帮你?

回答完,它会自动生成你的 `USER.md`、`SOUL.md` 等文件。

如果你用其他平台:

GitHub:https://github.com/halthelobster/proactive-agent

核心文件都在 `assets/` 目录下,核心逻辑都在 `SKILL.md` 里,可以手动迁移。


15万人已经用脚投票。你要不要试试,看它会不会成为你第一个”主动”找你的AI助手?