乐于分享
好东西不私藏

Hermes Agent 深度学习文档:从零理解「会自我进化的 AI Agent」

Hermes Agent 深度学习文档:从零理解「会自我进化的 AI Agent」

一、核心总结:这到底是个什么东西?

Hermes Agent 不是又一个聊天机器人套壳,也不是绑定在某个 IDE 里的编程助手。它是目前开源社区中极少数真正实现了闭环学习循环的自主 AI Agent 框架——这意味着它不仅能帮你完成任务,还能在完成任务的过程中自动提炼经验、创建可复用的技能、记住你的偏好,并且在下一次遇到类似问题时变得更好。

理解 Hermes Agent 的关键在于一个核心洞察:当前大多数 AI 工具都是“用完即弃”的——每次对话都从零开始,上次的经验不会沉淀为下次的能力。 Hermes Agent 试图打破这个局面。它的设计哲学可以浓缩为三句话:

  1. Agent 应该越用越聪明——通过持久记忆(Memory)、自主创建技能(Skills)、跨会话搜索(Session Search),让经验真正沉淀。

  2. Agent 应该在你所在的地方——CLI、Telegram、Discord、Slack、WhatsApp、Signal,一个网关进程统一管理,在手机上发消息就能指挥云端服务器上的 Agent 干活。

  3. Agent 应该能自己管理自己——定时任务、子 Agent 委派、上下文压缩、成本控制,不需要你时刻盯着。

从技术架构上看,它由一个核心 Agent 循环(AIAgent)驱动,挂载了 47 个内置工具、20 个工具集、6 种终端后端(本地、Docker、SSH、Modal、Daytona、Singularity),支持 18+ 个 LLM 提供商,并且内置了用于强化学习训练的轨迹生成和 Atropos 环境——这意味着你甚至可以用它来训练下一代更好的 AI 模型。

二、给小学生的一句话解释

它就像一个会记笔记、会总结经验、下次考试能用上的超级学习搭档。

三、核心概念拆解:AI 新手必须理解的七个关键词

1. Agent(智能体):不只是聊天,而是“能干活”

普通的 ChatGPT 对话是你问它答的模式。Agent 不同——你给它一个目标,它会自己拆解任务、调用工具、执行命令、检查结果、遇到问题自己调整策略,直到任务完成。

Hermes Agent 的 Agent 循环是这样工作的:接收你的消息 → 构建系统提示词(注入记忆、上下文文件、技能列表)→ 调用 LLM 生成回复 → 如果 LLM 决定调用工具,就执行工具并把结果反馈给 LLM → 循环,直到 LLM 认为任务完成。

对新手的意义: 当你听到“AI Agent”这个词,不要想成“更聪明的聊天机器人”,要想成“一个有手有脚、能操作电脑的数字员工”。

2. Closed Learning Loop(闭环学习循环): Hermes 的灵魂

这是 Hermes Agent 最核心的设计理念,也是它与其他 Agent 框架的根本区别。这个闭环由四个环节构成:

经验 → 记忆 → 技能 → 更好的经验

具体来说:

  • 记忆(Memory):Agent 在对话中学到的事实会被主动保存到 MEMORY.md(Agent 的笔记本)和 USER.md(关于你的画像)。下次开启新会话时,这些记忆会自动注入系统提示词,Agent 一开口就“记得”你是谁、你的项目用什么技术栈、你喜欢什么风格。

  • 技能(Skills):当 Agent 完成了一个复杂的多步骤任务后,它会自动把解决方案提炼成一个 SKILL.md 文件——这就是它的“程序性记忆”。下次遇到类似任务,它不用重新摸索,直接加载技能执行。

  • 跨会话搜索(Session Search):Agent 可以用全文搜索回溯过去所有对话,找到“我们上周讨论过的那个方案”。

  • 用户建模(User Modeling):通过 Honcho 辩证用户建模,Agent 对你的理解会随着交互不断加深。

对新手的意义: 这就像你雇了一个助理,他不仅帮你干活,还会自己写工作手册,下次新来的同事(或者他自己)可以直接照着手册干,不用你再教一遍。

3. Skills:Agent 的“程序性记忆”

技能是 Hermes Agent 最有创造力的设计之一。每个技能本质上是一个 Markdown 文档(SKILL.md),里面写着:这个技能是干什么的、需要什么工具、具体步骤是什么。

技能系统有几个精妙之处:

渐进式披露(Progressive Disclosure)——Agent 不会一次性把所有技能的完整内容加载到上下文里(那会浪费大量 token),而是先看到技能的名称和简介,只有真正需要用某个技能时才加载完整内容。这就像你不会把整个图书馆搬到桌上,而是先看目录,需要哪本再去取。

自我进化——Agent 在使用技能的过程中如果发现技能有改进空间,会自动用 skill_manage 工具的 patch 操作修改技能。技能会越用越好。

开放生态——技能兼容 agentskills.io 开放标准,可以从 Skills Hub、ClawHub、LobeHub 等社区安装别人分享的技能,也可以把自己的技能分享出去。

对新手的意义: 技能系统回答了一个关键问题——AI 怎么把“一次性的聪明”变成“可积累的能力”。这个思路对人类学习同样有启发。

4. Memory:有限但精准

Hermes 的记忆设计非常克制:MEMORY.md 只有 2200 字符(约 800 token),USER.md 只有 1375 字符(约 500 token)。这不是技术限制,而是刻意的设计选择。

为什么要限制记忆容量?因为记忆会注入到每次对话的系统提示词中,如果记忆太多,每次对话的固定成本就太高。更重要的是,有限的容量迫使 Agent 学会“遗忘”和“浓缩”——当记忆快满时,Agent 必须判断哪些信息更重要,把相关条目合并成更精炼的版本。这恰恰模拟了人类记忆的工作方式:我们不会记住每一个细节,而是提炼出模式和要点。

记忆之外还有会话搜索(Session Search)作为补充——它不受容量限制,可以全文检索所有历史对话,但需要额外的搜索和 LLM 摘要成本。这形成了一个“热记忆 + 冷存储”的双层架构。

对新手的意义: 这个设计教给我们一个深刻的知识管理原则——不是记得越多越好,而是随时能调用的核心知识 + 需要时能检索的详细资料,这才是高效的记忆结构。

5. Context Files(上下文文件):给 Agent 的“工作手册”

这是 Hermes Agent 中最容易被低估但最实用的功能。你可以在项目根目录放一个 AGENTS.md 文件,写上项目的架构说明、编码规范、特殊约定,Agent 每次开始对话时会自动读取。

更精妙的是渐进式子目录发现——Agent 在工作过程中进入某个子目录时,会自动发现并加载该目录下的 AGENTS.md。比如你的 monorepo 里 backend/ 和 frontend/ 各有自己的规范文件,Agent 操作到哪个目录就自动加载哪个目录的规范。

还有 SOUL.md——这是全局的人格文件,定义 Agent 的语气、风格和沟通方式。

对新手的意义: 这就是“Harness Engineering”(驾驭工程)的核心体现——你不是在写代码控制 Agent,而是通过写文档来“驾驭”它。后面我们会深入展开这个概念。

6. Tools & Toolsets(工具与工具集):Agent 的“手和脚”

Hermes 内置 47 个工具,分为 20 个工具集。工具集可以按平台启用或禁用——比如在 Telegram 上你可能不想让 Agent 执行终端命令,就可以关掉 terminal 工具集。

关键工具类别:

  • 终端和文件:直接在服务器上执行命令、读写文件

  • 浏览器自动化:11 个浏览器工具,能导航、截图、点击、填表

  • 委派(Delegation):生成独立的子 Agent 并行处理多个任务

  • 代码执行(execute_code):在沙箱中运行 Python 脚本,通过 RPC 调用其他工具,把多步骤流水线压缩成一次推理调用

对新手的意义: 工具是 Agent 从“能说”到“能做”的桥梁。没有工具的 LLM 只是一个文本生成器;有了工具的 Agent 才是一个真正的执行者。

7. Terminal Backends(终端后端): Agent 的“工作环境”

Hermes 支持 6 种终端后端:本地(local)、Docker、SSH、Daytona、Modal、Singularity。这意味着 Agent 执行命令的环境可以完全与你的本机隔离。

其中 Daytona 和 Modal 提供无服务器持久化——Agent 的工作环境在空闲时休眠,被唤醒时恢复,几乎不产生费用。这让“7×24 小时在线的个人 AI Agent”在经济上变得可行。

对新手的意义: 这解决了一个现实问题——你不希望 AI 在你的电脑上乱搞,但又希望它能真正执行操作。隔离环境让你既安全又高效。

四、Harness Engineering:驾驭工程——这套东西的核心方法论

“Harness Engineering”不是 Hermes Agent 文档中的一个正式术语,但它精确地描述了 Hermes Agent 背后的核心工程哲学:你不是在“编程”一个 Agent,而是在“驾驭”它——通过设计正确的约束、记忆、上下文和技能,让 Agent 在自主运行的同时保持在你期望的轨道上。

这种思维方式与传统软件开发有本质区别:

传统编程 vs. 驾驭工程

维度
传统编程
驾驭工程(Harness Engineering)
控制方式
写代码,精确控制每一步
写文档和规则,设定边界让 Agent 自主决策
错误处理
if-else 分支覆盖所有情况
Agent 自己判断、尝试、调整
经验积累
程序员手动优化代码
Agent 自动创建技能、改进技能
扩展方式
写新功能模块
安装新技能、连接新工具
核心产出
代码
上下文文件、记忆条目、技能文档

驾驭工程的四个支柱

支柱一:上下文设计(Context Design)

通过 AGENTS.mdSOUL.md.cursorrules 等上下文文件,你在定义 Agent 的“认知框架”。这不是写代码,而是写“工作手册”——告诉 Agent 这个项目的架构是什么、编码规范是什么、哪些操作是禁止的。好的上下文文件能让 Agent 在第一次接触项目时就表现得像一个熟悉项目的老员工。

支柱二:记忆策略(Memory Strategy)

2200 字符的记忆空间迫使你思考:什么信息值得 Agent 永远记住?什么信息只需要能检索到就行?这种“热记忆 + 冷存储”的双层设计,本质上是在做知识的优先级排序。你需要帮助 Agent(或者让 Agent 自己学会)区分“核心原则”和“具体细节”。

支柱三:技能沉淀(Skill Crystallization)

当 Agent 完成一个复杂任务后,最有价值的不是这次任务的结果,而是解决这个任务的方法被提炼成了一个可复用的技能。这就是“从经验到能力”的转化。驾驭工程的关键是培养这种“做完就提炼”的习惯——不管是 Agent 自动做,还是你主动要求它做。

支柱四:安全边界(Safety Boundaries)

Hermes 的命令审批系统、容器隔离、DM 配对授权、技能安全扫描,都是“驾驭”的一部分。你给 Agent 足够的自由去探索和执行,但同时设定了不可逾越的安全边界。这就像给一匹马套上缰绳——不是为了限制它跑,而是为了让它跑在正确的方向上。

五、如何把 Hermes Agent 的思想复用到学习和工作中

Hermes Agent 的设计理念远不止于“怎么用好一个 AI 工具”。它背后的系统思维可以直接迁移到个人学习和工作效率提升中。

复用一:建立你自己的“闭环学习循环”

Hermes Agent 的闭环是:经验 → 记忆 → 技能 → 更好的经验。

你可以在自己的学习中建立同样的闭环:

做完一件事 → 立刻写下关键收获(记忆)→ 如果是可复用的方法就整理成 SOP(技能)→ 下次遇到类似问题直接调用 SOP

很多人的学习之所以低效,就是因为缺少“记忆”和“技能”这两个环节——做完就忘,下次从零开始。Hermes Agent 用代码实现了这个闭环,你可以用笔记工具(比如 Obsidian、Notion、YouMind)实现同样的效果。

复用二:用“渐进式披露”管理知识

Hermes 的技能系统不会一次性加载所有技能的完整内容,而是先展示目录,需要时再加载详情。这就是渐进式披露

在个人知识管理中,这意味着:不要试图把所有知识都装在脑子里。建立一个清晰的索引系统(知道什么知识在哪里),只在需要时深入学习具体内容。你的大脑应该像 Hermes 的系统提示词一样——只保留最关键的“热知识”,其他的知道去哪找就行。

复用三:写“AGENTS.md“给自己

Hermes Agent 的上下文文件本质上是“项目的工作手册”。你完全可以为自己的每个项目、每个学习领域写一份类似的文档:

  • 这个项目/领域的核心目标是什么?

  • 有哪些关键约定和规范?

  • 常见的坑和注意事项是什么?

  • 相关资源在哪里?

每次开始工作前花 2 分钟读一遍这份文档,就像 Agent 在每次会话开始时加载上下文文件一样。这能极大减少“启动成本”——你不用每次都重新回忆“上次做到哪了”。

复用四:用“有限记忆”倒逼知识浓缩

Hermes 的 MEMORY.md 只有 2200 字符。这个限制迫使 Agent 不断浓缩和更新记忆。

给自己也设一个类似的限制:每个项目/领域的核心笔记不超过一页纸(A4)。当新知识进来时,你必须决定:是替换掉某条旧知识,还是把两条知识合并成更精炼的版本?这种“有限空间”的约束会训练你的抽象和提炼能力。

复用五:把重复任务变成“技能”

Hermes Agent 在完成复杂任务后会自动创建技能。你也应该这样做:任何你做过两次以上的事情,都值得写成一个 SOP(标准操作流程)。

关键不是写得多详细,而是写得能让“未来的你”或者“你的同事”直接照着做。就像 Hermes 的 SKILL.md 格式一样:名称、适用场景、具体步骤、需要的工具——简洁、可执行。

复用六:委派和并行化

Hermes Agent 可以生成子 Agent 并行处理多个任务。在工作中,这对应的是任务拆解和委派的能力。当你面对一个大任务时,问自己:哪些子任务可以并行?哪些可以委派给别人(或者委派给 AI)?哪些必须自己串行完成?

特别是在 AI 时代,很多信息收集、初步分析、格式转换的工作都可以“委派”给 AI Agent,你只需要做最终的判断和决策。

六、给 AI Agent 的操作手册:如何高效使用 Hermes Agent

以下内容可以直接扔给你的 AI Agent 作为学习参考文档。

快速上手流程

安装(Linux/macOS/WSL2,无需任何前置依赖,安装脚本自动处理 Python、Node.js 等):

curl -fsSL https://raw.githubusercontent.com/NousResearch/hermes-agent/main/install.sh | bash

首次配置

hermes setup

配置向导会引导你设置 LLM 提供商和 API Key。支持 Nous Portal、OpenRouter(200+ 模型)、OpenAI、z.ai、Kimi、MiniMax 等。

开始对话

hermes

关键命令速查

操作
命令
开始新对话
/new

 或 /reset
切换模型
/model [provider: model]
压缩上下文
/compress
查看 token 用量
/usage
浏览技能
/skills
恢复上次会话
hermes -c
按标题恢复会话
hermes -r “会话标题”
中断 Agent
Ctrl+C

(单次中断,双次退出)

高效使用的核心原则

原则一:前置上下文,减少来回

不要说“帮我修 bug”,要说“修复 api/handlers.py 第 47 行的 TypeError——process_request() 从 parse_body() 收到了 None“。一条信息包含足够上下文,胜过三轮追问。

原则二:让 Agent 用自己的工具

不要手把手指导每一步。说“找到并修复失败的测试”比“打开 tests/test_foo.py,看第 42 行,然后……”更高效。Agent 有文件搜索、终端、代码执行等工具,让它自己探索和迭代。

原则三:善用上下文文件

如果你发现自己在反复告诉 Agent 同样的事情(“用 tabs 不用 spaces”“我们用 pytest”“API 在 /api/v2”),就把这些写进 AGENTS.md。一劳永逸。

原则四:主动触发技能创建

完成一个复杂任务后,说“把你刚才做的保存为一个叫 deploy-staging 的技能“。下次直接 /deploy-staging 就能复用。

原则五:管理记忆容量

定期说“清理一下你的记忆”或者“把旧的 Python 3.9 笔记更新——我们现在用 3.12 了”。保持记忆精炼、最新。

原则六:用委派处理并行任务

需要同时调研三个方向?让 Agent 用 delegate_task 生成并行子任务。每个子 Agent 独立运行,只返回最终摘要,大幅节省主对话的 token。

原则七:选对模型做对事

用 /model 随时切换。复杂推理和架构决策用前沿模型(Claude Sonnet/Opus、GPT-4o),简单的格式化、重命名、模板生成用快速模型。

安全最佳实践

  • 处理不信任的代码时,用 Docker 或 Daytona 作为终端后端

  • 命令审批系统是你的安全网——不要轻易选“Always”,先用“Session”

  • 消息平台上的 bot 一定要设置用户白名单,永远不要开启 GATEWAY_ALLOW_ALL_USERS=true

  • 技能安装时注意安全扫描结果,dangerous 级别的技能会被自动阻止

七、架构全景:Hermes Agent 是怎么运转的

理解架构不是为了让你去改代码,而是为了让你知道“这台机器的每个齿轮在哪”,从而更好地使用它。

核心数据流

你的消息

  ↓

系统提示词构建(注入:记忆 + 上下文文件 + 技能列表 + 工具 schema)

  ↓

LLM 推理(选择的模型)

  ↓

├─ 纯文本回复 → 直接返回给你

└─ 工具调用 → 执行工具 → 结果反馈给 LLM → 继续循环

  ↓

会话结束时:记忆更新、技能创建/改进、会话持久化

六大子系统

子系统
核心文件
职责
Agent 循环
run_agent.py
提供商选择、提示词构建、工具执行、重试、压缩、持久化
提示词系统
agent/prompt_builder.py
系统提示词组装、上下文文件加载、安全扫描
工具系统
tools/registry.py

 + 各工具文件
47 个工具的注册、schema 收集、调度、错误包装
会话存储
hermes_state.py
SQLite + FTS5 全文搜索、会话血缘追踪
消息网关
gateway/run.py
14 个平台适配器、统一会话路由、用户授权
定时任务
cron/
JSON 存储的 Agent 级任务、多种调度格式、跨平台投递

设计原则

Hermes Agent 的架构遵循六个设计原则,每一个都值得学习:

提示词稳定性——系统提示词在对话中途不会变化,这保证了 LLM 的前缀缓存命中率,直接降低成本。只有用户显式操作(如 /model 切换模型)才会打破缓存。

可观察执行——每个工具调用都通过回调对用户可见。CLI 里有旋转动画,网关里有聊天消息。你永远知道 Agent 在干什么。

可中断——API 调用和工具执行都可以被用户中途取消。这在 Agent 走偏时至关重要。

平台无关的核心——同一个 AIAgent 类服务于 CLI、网关、ACP(IDE 集成)、批处理和 API 服务器。平台差异只存在于入口点,不在 Agent 核心。

松耦合——MCP、插件、记忆提供商、RL 环境等可选子系统都使用注册表模式和条件门控,不是硬依赖。

Profile 隔离——每个 Profile(hermes -p <name>)拥有独立的配置、记忆、会话和网关进程,可以并发运行。

八、深度评析:Hermes Agent 的突破与局限

真正的突破

Hermes Agent 最大的贡献不在于它有多少工具或支持多少平台,而在于它把“学习”这件事工程化了。在 AI Agent 领域,大多数框架关注的是“如何让 Agent 完成任务”,Hermes 关注的是“如何让 Agent 在完成任务的过程中变得更好”。这是一个层次上的跃迁。

技能系统的设计尤其值得称道。它不是简单的“保存对话历史”或“RAG 检索”,而是把经验提炼成结构化的、可执行的、可分享的知识文档。这种“程序性记忆”的概念,比大多数 Agent 框架的“语义记忆”(只是存储事实)更接近人类真正的专业能力是如何形成的——我们不只是记住事实,我们记住“怎么做”。

渐进式披露的设计也很精妙。它解决了一个实际的工程问题:Agent 的技能越多,系统提示词就越长,成本就越高。通过只在需要时加载技能详情,Hermes 在“能力丰富”和“成本可控”之间找到了平衡。

值得关注的局限

复杂度门槛——Hermes Agent 的功能极其丰富,但这也意味着学习曲线陡峭。对于只想要一个简单 AI 助手的用户来说,47 个工具、20 个工具集、6 种终端后端、14 个平台适配器可能是信息过载。官方的学习路径文档有所帮助,但从“安装完成”到“真正高效使用”之间仍然有不小的距离。

记忆容量的取舍——2200 字符的记忆限制是一个大胆的设计选择。对于简单的个人使用场景足够了,但对于需要 Agent 记住大量项目细节的专业场景,这个限制可能会成为瓶颈。虽然有 8 个外部记忆提供商插件作为补充,但配置和管理这些插件本身又增加了复杂度。

技能质量的不确定性——Agent 自动创建的技能质量取决于底层 LLM 的能力。如果使用较弱的模型,自动生成的技能可能不够准确或不够通用。技能的“自我改进”机制虽然存在,但改进的方向是否正确同样依赖于模型的判断力。

平台依赖——虽然 Hermes 支持 18+ 个 LLM 提供商,但核心体验仍然高度依赖于底层模型的工具调用能力。不同模型在工具调用的准确性和可靠性上差异很大,这会直接影响 Agent 的表现。

需要批判性审视的几个问题

“自我进化”是真进化还是统计拟合? Hermes 的闭环学习循环听起来很诱人,但必须清醒地认识到:Agent 的“学习”和人类的学习有本质区别。Agent 创建的技能本质上是 LLM 对一次成功经验的文本摘要,它没有真正“理解”为什么这个方案有效。当环境条件发生变化——比如 API 版本升级、依赖库行为改变——旧技能可能悄无声息地失效,而 Agent 并不具备察觉这种失效的元认知能力。所谓的“自我改进”,更准确地说是“基于当前模型能力的自我重写”,改进的上限被底层 LLM 的推理天花板锁死。

记忆的“浓缩”可能是信息的“扭曲”。 当 MEMORY.md 接近 2200 字符上限时,Agent 会合并和压缩条目。但压缩必然伴随信息损失,而 Agent 选择保留什么、丢弃什么的判断标准,完全取决于 LLM 在那一刻的推理——这个过程没有人类审核,也没有版本回溯机制。你可能永远不知道 Agent 悄悄“遗忘”了什么关键信息。这种不可见的信息衰减,在长期使用中可能累积成系统性偏差。

“越用越懂你”的另一面是“越用越偏向你”。 Hermes 的用户建模和记忆系统会让 Agent 越来越适应你的偏好和习惯,但这也意味着它可能强化你的认知盲区。如果你习惯用某种技术栈,Agent 会越来越倾向于推荐同一种方案;如果你的编码风格有某些坏习惯,Agent 会把这些习惯当作“用户偏好”来迎合。这种个性化与回声室效应之间的张力,Hermes 目前没有任何机制来对抗。

开源 ≠ 可控。 Hermes 是 MIT 协议开源的,所有数据存在本地 ~/.hermes/,这确实比闭源方案透明得多。但“代码开源”和“你真正理解它在做什么”之间有巨大鸿沟。run_agent.py 有 9200 行,gateway/run.py 有 7500 行——有多少用户真的审计过这些代码?Agent 的系统提示词是怎么组装的、记忆安全扫描的规则是什么、技能安全扫描会不会有漏网之鱼——这些问题对于绝大多数用户来说是黑箱。开源提供了审计的可能性,但可能性不等于现实。

“驾驭工程”的隐含假设是你知道该往哪驾驭。 整个 Harness Engineering 的框架建立在一个前提上:用户清楚自己想要什么,能够设计出正确的上下文文件、记忆策略和安全边界。但对于 AI 新手来说,这个前提往往不成立。你不知道 AGENTS.md 该写什么,不知道哪些信息值得放进记忆,不知道安全边界该画在哪里——而 Hermes 的文档虽然详尽,但更多是在告诉你“怎么做”,而不是“为什么这样做”以及“在什么情况下不该这样做”。

一个更深层的思考

Hermes Agent 代表了一种正在形成的新范式:AI 不再是一个你“使用”的工具,而是一个你“培养”的伙伴。 你投入时间配置上下文文件、引导它创建技能、帮它管理记忆,它就会变得越来越懂你、越来越能干。这种关系更像是师徒关系而非人机关系。

但这也引出一个值得警惕的问题:当你的 Agent 积累了大量关于你的记忆、你的项目的技能、你的工作方式的模型,这些“数字资产”的所有权和可迁移性如何保证?Hermes 作为开源项目,所有数据都存在本地(~/.hermes/),这是一个好的起点。但随着 Agent 变得越来越“懂你”,如何备份、迁移、甚至“继承”这些积累,将成为一个越来越重要的问题。

更根本的矛盾在于:我们希望 Agent 足够自主以减轻我们的负担,但又希望它足够可控以避免失误。Hermes 用“安全边界 + 命令审批”来平衡这对矛盾,但这本质上是一种事后补救——Agent 先行动,人类再审批。随着 Agent 能力的增长和任务复杂度的提升,人类审批者能否真正理解 Agent 的每一步操作、做出正确的放行或拒绝判断?当你对 Agent 的信任逐渐建立,开始习惯性地点击“approve”时,审批机制就从安全网退化成了橡皮图章。如何在信任与警惕之间保持动态平衡,可能是所有 Agent 使用者都必须持续面对的课题。

当 AI Agent 能够记住你的一切偏好、自动完成你的重复工作、甚至替你做出越来越多的判断时,你与 AI 的最佳协作边界应该画在哪里?哪些能力你应该坚持自己锻炼而不委托给 Agent,哪些则应该毫不犹豫地交出去?在这条边界的两侧,分别定义了什么样的“你”?

这个问题的尖锐之处在于:Hermes Agent 的整套设计——闭环学习、技能沉淀、用户建模——都在朝着“让你做得更少”的方向演进。但“做得更少”有两种截然不同的结果:一种是你从低价值的重复劳动中解放出来,把精力投入到更高层次的思考和创造上;另一种是你逐渐丧失了那些被委托出去的能力,变成了一个只会下指令的“甲方”,离开 Agent 就什么都做不了。

Hermes 的记忆系统会记住你的技术栈偏好,技能系统会替你固化最佳实践,上下文文件会替你维护项目规范——这些都在降低你的认知负担,但也在降低你重新审视这些决策的频率。当 Agent 替你“记住”了一切,你还会主动去质疑那些被记住的假设吗?

设计与 AI 的协作方式,本质上是在回答一个关于自我的问题:在 AI 能做越来越多事情的时代,“我”的不可替代性到底建立在什么之上? 是建立在“我能做什么”上(这个基础正在被 Agent 快速侵蚀),还是建立在“我选择做什么、我如何判断、我为什么这样判断”上?如果是后者,那么你与 Agent 的协作设计就不应该以“效率最大化”为唯一目标,而应该刻意保留一些“低效但有价值的人类参与”——那些迫使你思考、判断、承担责任的环节。这条边界画在哪里,没有标准答案,但你必须有意识地去画,而不是让 Agent 的能力增长替你做出这个决定。

基于 https://github.com/nousresearch/hermes-agent 、https://hermes-agent.nousresearch.com/ 整理及分析。