
OpenClaw Agent Node.js / TypeScript 由 Peter Steinberger 于 2025 年 11 月发布(原名 Clawdbot),2026 年 1 月更名为 OpenClaw。定位 为本地优先的个人 AI 助理网关,将 AI 接入你已在 使用的 20+ 消息渠道,数据全程保留在本地设备。 截至 2026 年 4 月 GitHub Stars 超过 30 万。 | Hermes Agent Python 3.11 由 Nous Research 于 2026 年 2 月发布,以"自进化 AI 智能体"为核心定位。拥有内置学习循环 (Learning Loop),能从每次对话中自主创建、优 化技能并持久化记忆,随着使用时间增长而持续变 强。发布仅 6 周内 GitHub Stars 突破 57,200+,成 长速度超过同期 OpenClaw。 |
关键信息速览
维度 | OpenClaw | Hermes Agent |
GitHub 地址 | openclaw/opencla | nousresearch/hermes-agent |
官方文档 | docs.openclaw.ai | hermes-agent.nousresearch.com/docs |
开发语言 | TypeScript (Node.js 24+) | Python 3.11 |
开发者 | Peter Steinberger 及社区 | Nous Research 及社区 |
发布时间 | 2025 年 11 月(更名 2026-01) | 2026 年 2 月 |
开源协议 | MIT | MIT |
GitHub Stars(2026-04) | ~307,000+ | ~57,000+(6 周内) |
核心定位 | 多渠道个人 AI 助理网关 | 自进化持久化 AI 智能体 |
Windows 原生支持 | 通过 WSL2(强烈推荐) | 不支持,仅限 WSL2 |
OpenClaw — 调度中心架构
OpenClaw 采用"调度中心"(Hub-and-Spoke)架构,核心由两大组件构成:
Gateway(网关):基于 WebSocket 的中央控制平面,负责渠道协议适配(WhatsApp/Telegram 等)、会话管理、RPC 调度和身份认证。Gateway 与消息平台之间的适配层相互独立,可按需挂载。
Agent Runner(运行器):基于 pi-mono (Pi Agent Core)的执行引擎,负责模型推理、工具调用(Tool Call)和状态持久化。
Lane(车道)队列:使用基于 Lane 的命令队列实现串行化执行,防止异步竞态冲突,保证多消息场景下的执行顺序。
Node 节点系统:支持 iOS、Android、macOS 节点,通过 mDNS/DNS-SD 或 Tailscale 实现跨网络安全通信;Gateway 协议将节点能力声明(Caps)注册为工具,可通过 node.invoke 远程调用。
Hermes Agent — 学习循环架构
Hermes 的核心是学习循环(Learning Loop),整体架构围绕"让智能体越用越强"设计:
Prompt 组装机制:将身份槽(Identity Slot / SOUL.md)、技能索引(Skills Index)和上下文文件(Context Files)分离,采用渐进式披露(Progressive Disclosure)策略,只在需要时加载完整技能内容,降低 Token 消耗,优化 Prompt 缓存效率。
执行后端(Terminal Backends):支持 6 种执行后端——本地(Local)、Docker、SSH、Daytona(Serverless)、Singularity、Modal,可按需选择本地或云端执行环境。消息网关进程:统一的消息网关处理 15+ 平台接入,通过 Unix 域套接字 RPC 与智能体核心通信。
强化学习集成(Tinker-Atropos):内置 RL 训练流水线,支持 GRPO 算法和 LoRA 微调,可将智能体运行轨迹数据直接用于模型微调。
架构对比总结
架构维度 | OpenClaw | Hermes Agent |
核心抽象 | Gateway 控制平面 + Agent Runner | 学习循环(Learning Loop) |
消息处理 | WebSocket Gateway,Lane 车道串行化 | Unix Socket RPC,统一网关进程 |
执行引擎 | pi-mono(Node.js) | Python asyncio + 6 种终端后端 |
Prompt 策略 | 极简系统提示词(<1000 tokens) | 身份/技能/上下文分离 + 渐进披露 |
节点/设备 | iOS / Android / macOS 节点,mDNS 发现 | 无专用节点,依赖 SSH/Modal 远程执行 |
学习能力 | 无自进化;技能靠 ClawHub 注册 | 自主创建 & 优化技能,FTS5 跨会话检索 |
RL 集成 | 无内置 RL 流水线 | Tinker-Atropos,GRPO + LoRA 微调 |
功能维度 | OpenClaw | Hermes Agent |
消息平台集成 | 20+ 平台:WhatsApp、Telegram、Slack、Discord、iMessage、飞书、钉钉、微信等 | 15+ 平台:Telegram、Discord、 Slack、WhatsApp、Signal、Matrix、邮件、DingTalk、Feishu、WeCom 等 |
技能/插件系统 | ClawHub 技能注册表,支持动态加载,社区技能数千个(如浏览器控制、文件操作、Canvas 绘图) | 遵循 agentskills.io 开放标准,支持自主创建技能,Skills Hub 社区库持续增长 |
记忆系统 | Bootstrap 记忆(注入 .md 文件)+ 语义向量检索(Semantic Search) | FTS5 全文搜索 + LLM 摘要;通过 MEMORY.md 和 USER.md 维护跨会话用户画像 |
自学习 / 自进化 | 无(依靠手动添加技能) | 核心特性:从经验创建技能,使用中优化技能,持久化知识 |
定时任务(Cron) | 内置 Cron 定时任务 + Heartbeat 心跳 | 自然语言或 cron 表达式调度,支持暂停/恢复/编辑 |
浏览器自动化 | 可选浏览器控制技能(ClawHub 安装) | 多后端:Browserbase 云、BrowserUse 云、本地 Chrome CDP、本地Chromium |
终端/代码执行 | 内置 exec 工具(Docker 沙盒可选) | terminal 工具,支持 Docker、SSH、Modal 等 6 种后端,含 PTY 支持 |
子智能体(Multi-Agent) | 支持多 Agent 团队编排(A2A Sessions) | delegate_task 工具,最多 3 个并发子智能体 |
语音 / TTS | 支持 macOS/iOS/Android 语音输入输出 | 5 种 TTS 后端(Edge TTS、ElevenLabs、OpenAI、MiniMax、NeuTTS),支持麦克风输入 |
图像生成 | 可通过 ClawHub 技能扩展 | 内置 FAL.ai FLUX 2 Pro 生成 + Clarity 2x 超分 |
MCP 支持 | 支持(plugin 形式) | 原生支持,stdio 和 HTTP 传输均 可,含 per-server 工具过滤 |
OpenAI 兼容接口 | 可选开启 HTTP /v1/chat/completions | 内置 API Server,兼容 OpenAI 格 式,可接 Open WebUI / LobeChat 等 |
RL 训练数据生成 | 不支持 | 支持 ShareGPT 格式轨迹保存,内置Tinker-Atropos RL 训练流水线 |
IDE 集成 | 不支持(仅 CLI/Chat) | ACP 集成(VS Code、Zed、 JetBrains) |
数据隐私 | 本地优先,数据存于 ~/.openclaw | 本地优先,数据存于 ~/.hermes ; 可选 Daytona/Modal 云端执行 |
Web 界面 | 内置 WebChat + Canvas 实时工作区 | Hermes WebUI(三栏式,第三方项 目) |
安全模型 | exec 工具三级沙盒;WebSocket 设备签名认证;可信代理模式 | 命令审批(Command Approval); 容器隔离;工具权限白名单/黑名单 |
模型/提供商 | OpenClaw | Hermes Agent |
Anthropic Claude | 支持 Claude 3.5/4.5/4.6 等 | 支持 默认模型 claude-opus-4.6 |
OpenAI GPT | 支持 GPT-4o 等 | 支持 通过 OpenAI API |
Google Gemini | 支持 Gemini 1.5/2.0/3 等 | 支持 通过 OpenRouter |
DeepSeek | 支持 原生接入 | 支持 通过 OpenRouter |
Moonshot (Kimi) | 支持 原生接入(社区排名第一 | 支持 通过 OpenRouter |
OpenRouter | 支持 | 支持 (官方推荐路由) |
通过 OpenRouter | ||
支持 | 支持 | |
Hermes 3(本地) | 可接入 | 深度优化 针对函数调用/推理深度对齐 |
模型降级(Fallback) | 支持 Model Fallbacks | 支持 独立视觉/压缩 Fallback |
API Key 轮换 | 支持 Auth Rotation | 支持 Credential Pools 多 Key 轮换 |
OAuth 免 Key 访问 | 支持 (部分模型逆向认证) | 不支持 |
社区模型排名(2026-04)根据 pricepertoken.com 社区投票,当前 OpenClaw 用户评分最高的模型依次为:Kimi K2.5 > GLM 4.7 > Gemini 3Flash Preview,反映了中文用户偏好本地化模型的趋势。
系统要求
操作系统:macOS、Linux、Windows(通过 WSL2,强烈推荐)
Node.js:24(推荐)或 22.16+
包管理器:npm、pnpm 或 bun 均可
方法一:一键安装脚本(推荐)
①、运行安装脚本(macOS / Linux / WSL2)
# 一键安装curl -fsSL https://openclaw.ai/install.sh | bash
| 提示:脚本会自动检测系统环境,安装 Node.js 运行时和 openclaw 全局命令。
# 全局安装(推荐)npm install -g openclaw# 使用 pnpmpnpm add -g openclaw#验证安装openclaw --version
openclaw onboard向导将引导你完成以下配置:
选择主模型(Claude / GPT-4o / Gemini / DeepSeek 等)并输入 API Key
配置工作区目录(默认 ~/.openclaw )
绑定消息渠道(Telegram / WhatsApp / Discord 等,可选)
配置 Hooks 自动化钩子(可选)
安装技能(Skills,可选)
# 启动后台 Gateway 守护进程openclaw gateway# 进入终端聊天界面openclaw tui# 或直接在命令行发送单条消息openclaw chat "帮我查一下今天的天气"
方法二:源码安装(开发者)
# 1. 克隆仓库git clone https://github.com/openclaw/openclaw.gitcd openclaw# 2. 安装依赖(推荐 pnpm)pnpm install# 3. 直接运行 TypeScript(开发模式)pnpm openclaw onboard# 4. 或构建后运行pnpm buildnode dist/index.js
方法三:Docker 部署
# 使用官方 docker-composegit clone https://github.com/openclaw/openclaw.gitcd openclaw# 编辑环境变量cp .env.example .envnano .env# 启动服务docker-compose up -d# 查看日志docker-compose logs -f
配置文件说明
配置文件位于 ~/.openclaw/openclaw.json ,以下为最小化配置示例:
{"model": {"default": "anthropic/claude-opus-4-5"},"gateway": {"port": 18789,"openai": {"enabled": true // 开启 OpenAI 兼容 HTTP 接口}},"models": {"providers": [{"name": "deepseek","baseUrl": "https://api.deepseek.com/v1","apiKey": "sk-your-deepseek-key"}]}}
常用命令速查
命令 | 说明 |
openclaw onboard | 初始化配置向导 |
openclaw gateway | 启动 Gateway 守护进程 |
openclaw tui | 打开终端聊天界面 |
openclaw chat "消息" | 发送单条消息 |
openclaw doctor | 运行诊断检查 |
openclaw configure | 重新配置(补充 API Key 等) |
openclaw update | 更新到最新版本 |
openclaw update --channel beta | 切换到 beta 更新通道 |
系统要求
操作系统:Linux、macOS、WSL2(Windows 不支持原生安装)、Android(Termux)
唯一前置依赖:Git(其余依赖由安装脚本自动处理)
Python 3.11(安装脚本通过 uv 自动下载,无需手动安装)
方法一:一键安装脚本(推荐)
①、运行安装脚本
# Linux / macOS / WSL2curl -fsSL https://raw.githubusercontent.com/NousResearch/hermes-agent/main/scripts/install.sh | bash# Android (Termux) —— 脚本自动检测并切换 Android 安装流程curl -fsSL https://raw.githubusercontent.com/NousResearch/hermes-agent/main/scripts/install.sh | bash
安装脚本自动完成:安装 uv、Python 3.11、Node.js v22、ripgrep、ffmpeg;克隆仓库;创建虚拟环境;配置全局 hermes 命令;引导 LLM 提供商配置。
②、重载 Shell 并启动
# 重载 Shell 配置source ~/.bashrc # 或 source ~/.zshrc# 验证安装hermes versionhermes doctor# 开始聊天hermes
方法二:手动安装(完整步骤)
①、克隆仓库(含子模块)
git clone --recurse-submodules https://github.com/NousResearch/hermes-agent.gitcd hermes-agent# 如果已克隆但未拉取子模块git submodule update --init --recursive
# 安装 uv(快速 Python 包管理器)curl -LsSf https://astral.sh/uv/install.sh | sh# 创建 Python 3.11 虚拟环境(uv 会自动下载 Python,无需 sudo)uv venv venv --python 3.11# 指定虚拟环境路径export VIRTUAL_ENV="$(pwd)/venv"
# 安装全部扩展(推荐)uv pip install -e ".[all]"# 仅核心功能(不含 Telegram/Discord/Cron)uv pip install -e "."# 按需组合安装uv pip install -e ".[messaging,cron,cli,mcp]"# 可选:安装 RL 训练后端uv pip install -e "./tinker-atropos"# 可选:浏览器自动化和 WhatsApp 桥npm install
可用 Extra 汇总:
Extra | 功能说明 |
all | 全部功能(Android 不可用) |
messaging | Telegram & Discord 网关 |
cron | 定时任务 cron 表达式解析 |
cli | 终端菜单 UI(配置向导) |
modal | Modal 云端执行后端 |
tts-premium | ElevenLabs 高质量语音 |
voice | CLI 麦克风输入 + 音频播放 |
mcp | Model Context Protocol 支持 |
honcho | Honcho AI 原生记忆后端 |
homeassistan | Home Assistant 集成 |
acp | ACP IDE 集成(VS Code / Zed) |
slack | Slack 消息平台 |
# 创建目录结构mkdir -p ~/.hermes/{cron,sessions,logs,memories,skills,pairing,hooks,image_cache,audio_cache,whatsapp/# 复制示例配置cp cli-config.yaml.example ~/.hermes/config.yaml# 创建 .env 文件并添加 API Keytouch ~/.hermes/.env
# ~/.hermes/.env 文件内容示例# 至少提供一个 LLM 提供商 KeyOPENROUTER_API_KEY=sk-or-v1-your-key-here# 可选:直接使用各提供商ANTHROPIC_API_KEY=sk-ant-your-keyOPENAI_API_KEY=sk-your-openai-key# 可选:扩展工具FIRECRAWL_API_KEY=fc-your-key # 网页搜索与抓取FAL_KEY=your-fal-key # 图像生成(FLUX)
mkdir -p ~/.local/binln -sf "$(pwd)/venv/bin/hermes" ~/.local/bin/hermes# Bashecho 'export PATH="$HOME/.local/bin:$PATH"' >> ~/.bashrc && source ~/.bashrc# Zshecho 'export PATH="$HOME/.local/bin:$PATH"' >> ~/.zshrc && source ~/.zshrc
⑥、选择模型并验证安装
# 选择 LLM 提供商和模型hermes model# 验证安装hermes versionhermes doctorhermes status# 首次对话测试hermes chat -q "你好,你有哪些工具可用?"
注意:[all] extra 在 Android Termux 上不可用,因为 voice 依赖的 ctranslate2 没有 Android wheel。Android 用户,请使用 .[termux] ,然后按需添加单独 extra。
常用命令速查
命令 | 说明 |
hermes | 启动交互式聊天 |
hermes model | 切换 LLM 提供商/模型 |
hermes tools | 配置启用/禁用的工具集 |
hermes gateway setup | 配置消息平台(Telegram等) |
hermes config set KEY VALUE | 设置单个配置项 |
hermes setup | 运行完整配置向导 |
hermes version | 查看版本 |
hermes doctor | 诊断安装问题 |
hermes status | 查看当前配置状态 |
hermes chat -q "消息 | 静默模式单条消息 |
OpenClaw 提供两种 API 接入方式:WebSocket 协议(原生)和OpenAI 兼容 HTTP 接口(可选)。
方式一:WebSocket 原生协议
Gateway 运行在 ws://localhost:18789 ,采用 JSON 帧格式。所有客户端(CLI、Web UI、macOS App、
iOS/Android 节点)均通过此协议通信。
1.1 握手流程
// 1. 连接后 Gateway 主动发送 challengeGateway → Client:{"type": "hello","nonce": "random-challenge-nonce"}// 2. Client 用设备密钥签名后回复Client → Gateway:{"type": "hello","role": "operator","device": {"id": "your-device-id","publicKey": "base64-encoded-public-key","nonce": "random-challenge-nonce","signature": "base64-encoded-signature","timestamp": 1744630000000}}// 3. 认证成功后 Gateway 返回 hello-okGateway → Client:{"type": "hello-ok","features": { "methods": [...] }}
1.2 发送聊天消息
// RPC 调用格式:chat.send{"id": "req-001", // 幂等性 Key"method": "chat.send","params": {"message": "帮我总结今天的邮件"}}// 流式响应事件{ "type": "chat.delta", "id": "req-001", "delta": "今天" }{ "type": "chat.delta", "id": "req-001", "delta": "共有" }{ "type": "chat.done", "id": "req-001" }
1.3 Node.js / JavaScript 示例
const WebSocket = require('ws');const ws = new WebSocket('ws://localhost:18789');ws.on('message', (data) => {const msg = JSON.parse(data);if(msg.type === 'hello') {// TODO: 用设备密钥签名 nonce,此处简化为 trusted-proxy 模式ws.send(JSON.stringify({type: 'hello', role: 'operator',auth: { mode: 'trusted-proxy' } // 本地调试时可用}));}if(msg.type === 'hello-ok') {// 握手完成,发送聊天消息ws.send(JSON.stringify({id: 'req-001',method: 'chat.send',params: { message: '你好,今天有什么安排?' }}));}if(msg.type === 'chat.delta') {process.stdout.write(msg.delta); // 流式输出}if(msg.type === 'chat.done') {console.log('\n[完成]');ws.close();}});
方式二:OpenAI 兼容 HTTP 接口
需先在 ~/.openclaw/openclaw.json 中开启:
{"gateway": {"openai": { "enabled": true }}}
启动 Gateway 后,即可用标准 OpenAI 格式调用:
2.1 cURL 示例
curl -X POST http://localhost:18789/v1/chat/completions \-H "Content-Type: application/json" \-H "Authorization: Bearer local-token" \-d '{"model": "openclaw/default","messages": [{"role": "user", "content": "帮我写一份会议总结"}],"stream": true}'
2.2 Python openai 库调用
from openai import OpenAI# 将 base_url 指向本地 OpenClaw Gatewayclient = OpenAI(base_url="http://localhost:18789/v1",api_key="local-token" # 任意字符串,本地认证)# 列出可用模型(列出所有 Agent)models = client.models.list()for m in models.data:print(m.id)# 聊天请求response = client.chat.completions.create(model="openclaw/default",messages=[{"role": "user", "content": "今天北京天气怎么样?"}],stream=True)for chunk in response:content = chunk.choices[0].delta.contentif content:print(content, end="", flush=True)
2.3 接入 Open WebUI
# Open WebUI 配置OPENAI_API_BASE_URL=http://localhost:18789/v1OPENAI_API_KEY=local-token# 或通过 Docker 环境变量docker run -d \-e OPENAI_API_BASE_URL=http://host.docker.internal:18789/v1 \-e OPENAI_API_KEY=local-token \-p 3000:8080 \ghcr.io/open-webui/open-webui:main
方式三:CLI 直接调用
# 发送单条消息(非交互模式)openclaw chat "帮我整理一下最近的 GitHub PR"# 带管道输入echo "总结以下文本:$(cat report.txt)" | openclaw chat# 指定技能openclaw chat --skill agent-browser "抓取 https://example.com 的标题"
promptfoo 集成:OpenClaw 已被 promptfoo 收录为原生提供商,支持直接在 promptfoo 测试框架中连接 Gateway WebSocket 进行智能体评估,无需额外配置 HTTP 层。
Hermes 提供三种使用方式:Python 库调用(推荐)、CLI 命令行和OpenAI 兼容 HTTP Server。
方式一:Python 库调用
1.1 安装
# 从 PyPI 安装pip install hermes-agent# 或用 uvuv pip install hermes-agent# 也可固定在 requirements.txthermes-agent>=0.1.0
1.2 基础用法 — chat() 方法
import osfrom hermes_agent import AIAgentos.environ["OPENROUTER_API_KEY"] = "sk-or-v1-your-key"# 创建智能体实例agent = AIAgent(model="anthropic/claude-opus-4.6", # OpenRouter 格式quiet_mode=True # 嵌入程序时必须设为 True)# chat() 自动处理工具调用,直接返回最终文本response = agent.chat("帮我搜索 Python 异步编程最佳实践")print(response)
1.3 完整对话控制 — run_conversation()
result = agent.run_conversation(user_message="分析这段代码的时间复杂度",ephemeral_system_prompt="你是一个专业的算法分析助手,请给出详细的复杂度分析。")# 返回字典包含:print(result["response"]) # 最终文本回复print(result["messages"]) # 完整对话历史print(result["tool_calls_made"]) # 工具调用次数print(result["iterations"]) # 执行迭代次数
1.4 多轮对话(保留历史)
agent = AIAgent(model="anthropic/claude-3.5-sonnet", quiet_mode=True)# 第一轮result1 = agent.run_conversation("我叫李明,是一名后端工程师")history = result1["messages"]# 第二轮:传入上轮历史result2 = agent.run_conversation(user_message="帮我写一个 Python FastAPI 路由模板",conversation_history=history # 自动复制,不会修改原列表)print(result2["response"])
1.5 控制工具权限
# 白名单模式:只允许 web 搜索工具research_agent = AIAgent(model="anthropic/claude-3.5-sonnet",quiet_mode=True,enabled_toolsets=["web", "files"] # 仅启用 web 和文件工具)# 黑名单模式:禁用终端工具(共享环境安全)safe_agent = AIAgent(model="anthropic/claude-3.5-sonnet",quiet_mode=True,disabled_toolsets=["terminal"] # 禁止执行系统命令)
1.6 保存训练轨迹(RL 数据生成)
agent = AIAgent(model="anthropic/claude-3.5-sonnet",quiet_mode=True,save_trajectories=True, # 开启轨迹保存ephemeral_system_prompt="你是代码审查专家" # 不会被保存到训练数据)result = agent.chat("审查这段 Go 代码")# 对话以 ShareGPT 格式追加到 JSONL 文件,供模型微调使用
1.7 AIAgent 构造参数速查
参数 | 类型 | 默认值 | 说明 |
model | str | "anthropic/claude-opus-4.6" | OpenRouter 格式模型名 |
quiet_mode | bool | False | 嵌入程序时必须设 True |
enabled_toolsets | List[str] | None | 工具白名单 |
disabled_toolsets | List[str] | None | 工具黑名单 |
save_trajectories | bool | False | 保存对话到 JSONL |
ephemeral_system_prompt | str | None | 临时系统提示(不保存) |
max_iterations | int | 90 | 最大工具调用迭代次数 |
skip_memory | bool | False | 禁用持久化记忆读写 |
api_key | str | None | API Key(覆盖环境变量) |
base_url | str | None | 自定义 API 端点 |
platform | str | None | 平台提示(如 "telegram") |
方式二:集成示例
2.1 FastAPI Web 服务
from fastapi import FastAPIfrom pydantic import BaseModelfrom hermes_agent import AIAgentapp = FastAPI()class ChatRequest(BaseModel):message: strmodel: str = "anthropic/claude-3.5-sonnet"@app.post("/chat")async def chat(req: ChatRequest):# 每次请求创建独立实例(非线程安全,不能共享)agent = AIAgent(model=req.model, quiet_mode=True)response = agent.chat(req.message)return {"response": response}
2.2 批量并发处理(数据生成)
from hermes_agent.batch_runner import BatchRunnerprompts = ["总结论文《Attention is All You Need》","分析 Python GIL 的优缺点","写一个 Redis 缓存中间件示例",]runner = BatchRunner(model="anthropic/claude-3.5-sonnet",max_workers=3, # 最多 3 个并发实例save_trajectories=True)results = runner.run(prompts)for r in results:print(f"[{r['task_id']}] {r['response'][:100]}...")
线程安全提示:AIAgent 内部维护对话历史、工具会话和迭代计数器,不是线程安全的。多线程或并发场景下,每个线程/任务必须创建独立的 AIAgent 实例。
方式三:OpenAI 兼容 HTTP Server
# 启动 Hermes 内置 API Serverhermes server --port 8080# 也可在配置文件中开启hermes config set api_server.enabled truehermes config set api_server.port 8080
# 使用标准 openai 库调用from openai import OpenAIclient = OpenAI(base_url="http://localhost:8080/v1",api_key="not-needed")response = client.chat.completions.create(model="hermes",messages=[{"role": "user", "content": "你好!"}])print(response.choices[0].message.content)
方式四:CLI 调用
# 交互式对话hermes# 静默单条消息(适合脚本调用)hermes chat -q "总结 README.md 的内容"# 指定模型hermes chat --model "openai/gpt-4o" -q "写一段 SQL 查询"# 使用 @ 引用文件内容hermes chat -q "分析 @./src/main.py 的代码质量"# 查询技能列表hermes skills list# 安装技能hermes skills install pdf-processing
OpenClaw
优点 + 生态成熟,30 万+ Stars,数千个社区技能 + 消息渠道覆盖最广(20+ 平台) + 极简系统提示词(<1000 tokens),成本低 + 本地优先,数据隐私保护强 + 支持 iOS/Android/macOS 节点,可远程控制设备 + OAuth 逆向认证,部分模型无需 API Key + Lane 队列保证并发安全 + Active Canvas 可视化工作区 | 缺点 - 无自学习/自进化能力,技能靠手动添加 - 长期运行存在上下文膨胀问题 - WhatsApp 等渠道配置较复杂 - 依赖 Node.js,与 Python 生态集成不便 - 无内置批量处理和 RL 训练支持 - ClawHub 技能质量参差不齐,需人工审核 |
Hermes Agent
优点 + 唯一内置学习循环,越用越智能 + Python 生态,pip 安装,代码集成简单 + 6 种执行后端,支持 Serverless 部署 + 原生 MCP 支持,工具扩展方便 + 内置 RL 训练流水线,可用于模型微调 + ACP IDE 集成(VS Code / Zed / JetBrains) + agentskills.io 开放标准,跨平台技能复用 + FTS5 全文检索,跨会话记忆召回能力强 | 缺点 - 项目较新(2026-02 发布),生态不如 OpenClaw - 不支持原生 Windows,仅 WSL2 - 对 API Key 依赖度高,无免 Key OAuth - 消息平台覆盖少于 OpenClaw(15 vs 20+) - 无设备节点系统,无法远程控制本地设备 - 长期运行稳定性数据仍在积累中 |
根据需求选择 需要最广消息平台覆盖 → OpenClaw(50+ 集成 vs Hermes 的 15+) 需要自进化/自学习能力 → Hermes Agent(核心特性,OpenClaw 不具备) 需要嵌入 Python 应用 → Hermes Agent(pip install + AIAgent 类,集成简洁) 需要大型预建技能生态 → OpenClaw(ClawHub 数千技能,社区活跃) 需要远程控制本地设备 → OpenClaw(iOS/Android/macOS 节点 + mDNS) 需要 Serverless/云端执行 → Hermes Agent(Daytona / Modal,闲置几乎零成本) 需要 RL 训练数据生成 → Hermes Agent(Tinker-Atropos 内置) 注重数据隐私,极简部署 → OpenClaw(本地优先,OAuth 免 Key,配置向导友好) 跨会话深度记忆 → Hermes Agent(FTS5 + LLM 摘要,USER.md 用户画像) IDE 内使用(VS Code 等) → Hermes Agent(ACP 协议原生集成) |
两者并不互斥:OpenClaw 和 Hermes Agent 均为 MIT 协议开源项目,可以同时部署。OpenClaw 擅长"多渠道接入和广度",Hermes擅长"深度学习和长期记忆"。部分开发者将 OpenClaw 作为消息路由网关,同时用 Hermes 的 Python API 处理需要长期记忆的复杂任务,形成互补架构。
夜雨聆风