Hermes Agent 深度解读:AI 助手自己学会用工具是怎么做到的
今天单独写一篇Hermes Agent文章,这一周它的数据又涨疯了——周涨 25,081 星,总星数突破 110K,直接坐上 GitHub Python trending 第二。v0.10.0 在 4 月 16 日刚发,仅仅一周就把一堆老牌 Agent 框架挤到了身后。
但数据只是表象,真正值得关心的是:它到底解决了一个什么问题,让这么多人集体投票? 我花了两天把它接上本地 Qwen3.5 实测,今天这篇把架构、核心机制和本地部署路径一次性讲透。
01 | 它到底是什么
Hermes Agent 是 Nous Research 出品的 AI Agent 框架,MIT 协议,Python 为主。一句官方 slogan 说清定位:
「The agent that grows with you.」—— 一个会随着你一起成长的 Agent。
跟市面上大多数 Agent 的核心差别:它不是一次性工具。大部分 Agent 框架做完任务就结束了,上下文清零;Hermes 每完成一个任务,都会把过程沉淀成一个可复用的”技能文件”,下次遇到类似需求直接召回,不再从头推理。
它还特意做成了全栈可用——终端 CLI、Telegram、Discord、Slack、WhatsApp、Signal 一把抓,通过 hermes gateway 一条命令接通。你在手机上给 Telegram 机器人发个任务,笔记本上的 Hermes 就跑起来了。
02 | 核心机制①:技能蒸馏(Skill Distillation)
Hermes 最硬的创新,是一个叫 「autonomous skill creation」 的机制。
流程简单说:你让它做一个复杂任务——比如「把这个 PDF 解析后存进 SQLite 做全文检索」。它把任务拆成步骤、调工具、跑完整流程。完成后,它会自动把整套流程抽象成一个 Markdown 格式的技能文件,存进本地 skills 目录。
下次你再说「帮我把这篇论文做全文检索」,它直接调这个技能,不用重新推理。更关键的是——技能在使用过程中还会自我改进。比如你发现它拆出来的 chunk 太小、建议它用重叠分块,下次同一技能的文件会被更新。
Hermes 的技能文件还遵循了一个叫 agentskills.io 的开放标准,也就是说理论上你从别处下载的技能可以直接用,不同 Agent 之间的技能甚至能互相迁移。这一步如果做成,是生态级的事情。
03 | 核心机制②:跨会话记忆
大模型最折磨人的一点——每开新会话上下文清零。昨天跟它掰扯清楚的架构决策,今天又得从头解释一遍。
Hermes 的解法是三层叠的:
-
FTS5 session search + LLM summarization:所有历史会话用 SQLite 的全文检索索引起来,新会话启动时召回相关片段,再用小模型压缩成摘要注入上下文。 -
Honcho dialectic user modeling:持续构建你的用户画像——你的偏好、工作方式、代码风格,越用越准。 -
Agent-curated memory with periodic nudges:Agent 自己周期性整理记忆,该删的删、该合并的合并,避免记忆池膨胀后反而拖慢检索。
结果就是:”越用越聪明”不是 slogan,是架构层决定的特性。
04 | 本地部署实操:接 Ollama + Qwen3.5
重点来了。Hermes 对本地玩家的最大友好点:模型后端完全解耦,一个 hermes model 命令就能切。
安装三步走(Linux / macOS / WSL2 通用,Android 可用 Termux):
curl -fsSL https://raw.githubusercontent.com/NousResearch/hermes-agent/main/scripts/install.sh | bashsource ~/.bashrchermes
第一次启动会进 hermes setup 向导。跳过官方的 Nous Portal / OpenRouter,直接选 Custom endpoint,配置如下:
Base URL: http://localhost:11434/v1API Key: ollamaModel: qwen3.5:9b
本地 Ollama 那端先把 Qwen3.5 拉下来:
ollama pull qwen3.5:9b
硬件建议: 9B 版本模型体积约 6GB,8G 显存能流畅跑;显存不够就退 4B 版本(约 3GB,4G 显存也能跑)。写长文档/长代码场景优先 9B,日常对话 4B 够用。预算充足可以直接上 27B,但显存要求陡增到 20G+。
配置完直接 hermes 回车进交互,第一条就能验证:
你:帮我写一个 Python 脚本,把当前目录下所有 PDF 批量转 Markdown
任务跑完后,去看看 ~/.hermes/skills/ 目录,会多出一个 Markdown 技能文件,记录了它刚才走通的流程。下次说「再把另一个目录的 PDF 也转一下」,它直接调这个技能,秒出结果。
05 | 实测体验:两天下来最大的感受
我这两天连续用它做了几件事:重构一个 Python 小项目、整理一批论文笔记、写本文大纲。最直观的差别有两个:
一是上下文延续性。第二天打开,说「继续昨天那个重构」,它自己调出前一天的会话摘要,记得我们到哪一步、上次决定用什么架构。这件事普通 ChatGPT、Claude Code 都做不到。
二是技能复用速度。第一次教它「把飞书文档导出转本地 Markdown 归档」走了大概 5 分钟、来回几轮。第二次我让它处理另一篇文档,它直接调技能,20 秒搞定,中间没有任何多余对话。
缺点也实说:新建的技能文件偶尔冗余,需要手动清理一下;对中文 prompt 的意图识别在 Qwen3.5:4B 上偶有偏差,9B 明显稳定。
一句话总结
|
|
|
|---|---|
|
|
|
|
|
|
|
|
|
|
|
|
Hermes Agent 的真正意义不在于”又一个 Agent 框架”,而在于它把「Agent 使用久了会越来越懂你」这件事,从口号变成了架构。
本周末如果有时间,建议顺序是:先装 Ollama + Qwen3.5:9B → 再 curl 装 Hermes → 用一周日常任务跑它 → 观察 skills/ 目录的积累。一周之后你对”本地 AI 助手”的理解会彻底升级。
下一篇讲学生党本地 AI 实操,没关注的可以点个关注等更新。
夜雨聆风