📑 本文导航
Part 1 · 沙盒环境搭建
Part 2 · 个人微信接入(官方 ClawBot 插件)
Part 3 · 自定义模型供应商(New-api)
Part 4 · 模型路由与缓存优化
Part 5 · Bootstrap 初始化与核心 MD 模板
Part 6 · Token 消耗监控
Part 7 · Skill 安装与装机必备
Part 8 · 用 AI 发现和安装 Skill
Part 9 · 系统备份与恢复
Part 10 · 记忆系统优化
Part 11 · 一键自动化配置
OpenClaw 是一款开源本地 AI 助手框架,它把大语言模型(LLM)变成一个 7×24 小时在线、有记忆、能操作工具的私人智能体。
但「装上能用」和「用得好」之间,隔着模型选择、成本控制、记忆管理、技能扩展等一系列工程问题。本文用 Docker 沙盒(sandbox)方案贯穿全程——删掉就是彻底卸载,想让龙虾看到什么,操作什么都由你自己控制。
全文约 15 分钟阅读,每个操作步骤都附有预期反馈,确保你知道「做对了长什么样」。
💡 懒人通道:如果不关心技术细节,可以直接跳到文末 Part 11 · 一键自动化配置,复制脚本一键搞定。
🔰 新手必读:Docker 和命令行是什么?
命令行(Terminal / 终端):就是那个黑底白字的窗口。macOS 按 ⌘ + 空格 搜索「终端」打开,Windows 搜索「PowerShell」打开。你在里面输入命令让电脑执行操作——比打开文件夹、点鼠标快得多。
Docker:想象一个「虚拟电脑」运行在你的电脑里。它有自己的文件系统、网络,和你的主系统完全隔离。好处是:装坏了删掉重来,不影响你的电脑。
Docker Compose:一个配置文件 docker-compose.yml,描述「怎么启动这个虚拟电脑」。一条命令 docker compose up -d = 启动,docker compose down = 关闭。
Volume(卷挂载):Docker 容器默认删了数据就没了。挂载 = 把你电脑上的文件夹「接入」容器内部,这样容器内外共享数据。
🐳 安装 Docker Desktop
macOS:
1. 打开 https://docker.com/get-started → 点击 Download for Mac
2. 打开 .dmg → 拖动 Docker 到 Applications
3. 从启动台打开 Docker → 等右上角鲸鱼图标显示 running
Windows:
1. 同上地址 → 点击 Download for Windows
2. 安装时勾选 Use WSL 2(必须)
3. 安装完重启电脑 → 打开 Docker Desktop
Linux (Ubuntu):
# Ubuntu / Debian 一键安装 curl -fsSL https://get.docker.com | sh sudo usermod -aG docker $USER # 退出重新登录后生效验证安装成功:打开终端输入 docker --version 和 docker compose version,能看到版本号就 OK。
PART 01
Docker 沙盒环境搭建
类似 conda ——所有东西都在容器里,删容器即卸载
直接 npm install -g 安装会把依赖散落在系统各处。Docker 提供了完美隔离:一个目录装下全部状态,还能同时跑多个实例。
确认 Docker 环境
docker --version docker compose version预期反馈:Docker version 27.x.x 和 Docker Compose version v2.x.x
创建项目目录和 docker-compose.yml
mkdir -p ~/openclaw-sandbox cd ~/openclaw-sandbox mkdir -p config workspace skills extensions cat > docker-compose.yml << 'EOF' services: openclaw: image: ghcr.io/openclaw/openclaw:latest container_name: openclaw-main restart: unless-stopped ports: - "18789:18789" volumes: - ./config:/home/node/.openclaw - ./workspace:/home/node/.openclaw/workspace - ./skills:/home/node/.openclaw/skills - ./extensions:/home/node/.openclaw/extensions environment: - TZ=Asia/Shanghai EOF启动并完成初始化
docker compose up -d # 验证容器启动 docker logs openclaw-main --tail 5预期反馈:看到 [gateway] listening on ws://127.0.0.1:18789 说明启动成功。接下来可以通过微信或 CLI 与 AI 对话:docker exec -it openclaw-main openclaw agent -m "你好"
Docker 内能访问网页和文件吗?
这个问题很常见。Docker 容器默认能访问外部网络(搜索、调 API、访问网页都没问题),但不能访问宿主机的文件系统——除非通过 Volume 挂载。上面的 docker-compose.yml 已经挂载了 4 个目录:
./config → 容器内 /home/node/.openclaw(配置和状态)
./workspace → 工作空间(AI 读写文件的地方)
./skills → 技能包目录
./extensions → 插件目录(如微信插件)
如需让 AI 访问你的其他文件夹(如 ~/Documents),在 docker-compose.yml 的 volumes 中加一行:
volumes: - ./config:/home/node/.openclaw - ./workspace:/home/node/.openclaw/workspace - ./skills:/home/node/.openclaw/skills - ./extensions:/home/node/.openclaw/extensions - ~/Documents:/home/node/documents:ro # ⬅️ 新增:挂载你的文档(:ro = 只读,更安全)⚠️ 挂载时加 :ro(只读)可防止 AI 意外修改源文件。确认安全后可改为 :rw(读写)。
沙盒日常管理速查
docker compose up -d — 启动(后台运行)
docker compose down — 停止并移除容器(数据安全,在挂载目录里)
docker compose pull && docker compose up -d — 升级到最新版
docker exec -it openclaw-main bash — 进入容器内部操作
docker logs openclaw-main --tail 50 — 查看最近 50 条日志
彻底卸载 Docker 沙盒
等同于 conda env remove——删完跟没装过一样。
cd ~/openclaw-sandbox # Step 1:停止并移除容器和网络 docker compose down -v # Step 2:删除 OpenClaw 镜像(释放磁盘空间) docker rmi ghcr.io/openclaw/openclaw:latest # Step 3:删除所有数据(配置/工作空间/技能/日志) cd ~ && rm -rf ~/openclaw-sandbox # Step 4:(可选)清理 Docker 系统缓存 docker system prune -f预期反馈:执行 docker ps -a 不再有 openclaw-main,ls ~/openclaw-sandbox 提示目录不存在。完全干净。
PART 02
个人微信接入
通过微信官方 ClawBot 插件安全连接,不会封号
⚠️ 绝对不要使用 Wechaty 或 ntwork 等第三方协议库直接接入个人微信。微信对模拟协议检测极严,轻则功能受限,重则永久封号。下面的方案是微信官方支持的路径。
前置条件
1. iOS 微信版本 ≥ 8.0.70(Android 支持可能有限)
2. 更新后进入 设置 → 插件,确认能看到 ClawBot 入口
看不到?重启微信 App 几次,或检查是否为最新版本
Step 1:安装微信插件
# 安装微信插件(在容器内执行) docker exec openclaw-main \ npx -y @tencent-weixin/openclaw-weixin-cli@latest \ installStep 2:扫码授权微信账号
# 启动授权流程(终端会显示二维码) docker exec -it openclaw-main \ openclaw channels login \ --channel openclaw-weixin # 手机操作: # 1. 打开微信 → 设置 → 插件 → ClawBot # 2. 扫描终端中的二维码 # 3. 在手机上确认授权💡 授权凭证会保存在本地,不会上传到第三方服务器。
💡 支持多个微信账号——重复执行 login 命令即可添加。
Step 3:重启容器
docker restart openclaw-mainStep 4(可选):隔离会话上下文
默认所有频道共享 AI 上下文。如果你希望每个联系人有独立记忆:
docker exec openclaw-main \ openclaw config set \ agents.mode per-channel-per-peer预期反馈:在微信中给自己或朋友发消息,AI 即时回复。openclaw channels list 显示 openclaw-weixin 状态为 active。
PART 03
自定义模型供应商(New-api)
通过 API 中转服务接入 Anthropic Claude,国内直连
为什么推荐 New-api?
直接调用 Anthropic 官方 API 需要海外信用卡 + 稳定梯子,且无法统一管理多家模型的额度和用量。New-api 是一个基于 One API 的开源 API 管理平台(GitHub 30K+ Stars),解决三个痛点:
① 统一入口 — 聚合 30+ 模型供应商(OpenAI / Anthropic / Google / 国内模型),一个 Base URL 访问所有模型
② 渠道管理 — 配置多个 API Key 做负载均衡和故障转移,某个 Key 限速自动切下一个
③ 用量监控 — 实时查看每个 Token 的消耗、每个渠道的调用量,内置缓存计费
Step 1:部署 New-api(如果你还没有)
# Docker 一行部署 New-api docker run -d --restart always --name new-api \ -p 3000:3000 \ -v /home/ubuntu/new-api:/data \ calciumion/new-api:latest预期反馈:浏览器打开 http://你的服务器IP:3000,看到 New-api 管理面板。默认账号 root,密码 123456(请立即修改)。
Step 2:创建 Anthropic 渠道
在 New-api 管理面板中:
1. 点击 渠道管理 → 添加新渠道
2. 类型选择 Anthropic Claude
3. 填入你的 Anthropic 官方 API Key(sk-ant-api03-...)
4. 模型列表勾选 claude-sonnet-4-20260514 和 claude-opus-4-20260514
5. 点击提交
Step 3:生成 API Token
1. 点击 令牌管理 → 添加新令牌
2. 名称填 openclaw
3. 复制生成的 Token(格式:sk-xxxxxxxx)
4. 记录你的 New-api 地址作为 Base URL
Step 4:在 OpenClaw 中配置
// ~/.openclaw/openclaw.json { "models": { "primary": "claude-sonnet-4-20260514", "thinking": "claude-opus-4-20260514", "providers": { "new-api": { "baseUrl": "https://your-newapi.com/v1", // ⬅️ 末尾必须加 /v1 "apiKey": "sk-xxxx", // ⬅️ New-api 生成的 Token "api": "anthropic-messages", // ⬅️ 必须用这个格式 "cacheRetention": "short", "contextWindow": 200000, "maxTokens": 8192 } } } }⚠️ 三个必踩坑:① baseUrl 末尾漏 /v1 → 404;② api 写成 "openai-completions" → 工具调用 400 错误;③ 模型名与 New-api 渠道中配置的不一致 → 无可用模型。
Step 5:验证连接
openclaw gateway restart # 在对话中输入 /status预期反馈:Provider: new-api,Model: claude-sonnet-4-20260514。如果配置有问题,可以在文末加我微信交流排查。
PART 04
模型路由与缓存优化
双模型路由 + Prompt 缓存,降低 40-60% Token 成本
OpenClaw 每轮对话发送完整上下文给模型——一句「你好」可能消耗数万 Token。如果所有任务都走旗舰模型,月费轻松破百美元。模型路由的核心思想:90% 的日常对话用便宜模型,仅 10% 的复杂推理用旗舰。
各模型单价对比(每百万 Token)
Claude Opus 4 — 输入 $15 / 输出 $75(旗舰,复杂推理)
Claude Sonnet 4 — 输入 $3 / 输出 $15(主力,日常对话)
Claude Haiku 3.5 — 输入 $0.8 / 输出 $4(经济,简单任务)
↑ Opus vs Haiku 成本差 18 倍,同样的对话 Haiku 仅需几分钱
实操:配置双模型路由
Part 3 的配置中已包含 primary 和 thinking,这就是路由的核心——OpenClaw 根据任务复杂度自动选择模型。你还可以加一个 Heartbeat 专用的经济模型:
// openclaw.json 完整模型路由配置 { "models": { "primary": "claude-sonnet-4-20260514", // ⬅️ 日常对话 "thinking": "claude-opus-4-20260514", // ⬅️ 深度推理(AI 自动切换) "providers": { ... } // ⬅️ 沿用 Part 3 配置 }, "agents": { "defaults": { "contextTokens": 100000, // ⬅️ 超 10 万 token 自动 compact "heartbeat": { "model": "claude-haiku-3.5", // ⬅️ Heartbeat 用最便宜的模型 "intervalMinutes": 15 // ⬅️ 降频到 15 分钟 } } } }验证路由生效
openclaw gateway restart # 在对话中输入 /status预期反馈:显示 Model: claude-sonnet-4 (primary) 和 Thinking: claude-opus-4。给 AI 一个复杂任务(如「分析这段代码的性能瓶颈」),再 /status,如果模型切成 Opus 说明路由生效。
缓存策略 + 日常命令
/compact — 压缩对话历史(长会话必用,省 40-60%)
/model haiku — 临时切到经济模型(一次性简单任务)
/model sonnet — 切回主力模型
/status — 查看当前模型 + Token 消耗 + 缓存命中
缓存策略选择:cacheRetention: "short" 适合低频使用(避免无用 cache write),"long" 适合高频对话(最大化命中率,可降 75% 成本)。读缓存仅为完整计算的 10% 价格。
成本预估对比
📊 假设每天 50 轮对话、平均每轮 10K input + 2K output tokens:
全部用 Opus:~$18/天 → $540/月
全部用 Sonnet:~$3.6/天 → $108/月
路由 + 缓存优化后:~$45-65/月(Sonnet 为主 + 10% Opus + 缓存复用)
↓ 综合节省 60-90%
PART 05
Bootstrap 初始化与核心 MD 模板
8 个 Markdown 文件 = AI 的性格 + 记忆 + 行为边界
OpenClaw 每次对话启动时自动加载 8 个 MD 文件。这些文件本质上就是系统提示词(System Prompt)——它们决定 AI 的性格、能力边界和工作方式。花 10 分钟认真填写,后续每次对话都会受益。
Soul.md ⭐⭐⭐⭐⭐ — 核心人格、价值观、风格(最关键)
User.md ⭐⭐⭐⭐⭐ — 你的偏好、技术栈、工作习惯
Agents.md ⭐⭐⭐⭐ — 权限控制(能做什么 / 不能做什么)
Memory.md ⭐⭐⭐⭐ — 长期记忆(Part 10 详述)
Identity.md / Tools.md / Heartbeat.md / Bootstrap.md — 辅助文件
Soul.md — 核心提示词模板
提示词工程(Prompt Engineering)的精髓:具体 > 模糊,约束 > 自由,示例 > 描述。
# Soul ## 角色定义 你是一个资深全栈工程师 + 技术顾问。 ## 沟通风格 - 说话直接,不说废话,不用「首先」「接下来」等过渡词 - 有不同意见直接说,不当 yes-man - 给方案不要只给一个,给 2-3 个并说明取舍 - 技术讨论用中文,代码注释和变量名用英文 ## 输出规范 - 代码修改附带一句话说明「改了什么、为什么改」 - 搜索前先说你要搜什么和为什么 - 长回答用 ## 标题分段,短回答直接说 ## 行为边界(约束 > 自由) - 修改任何文件前必须确认 - 不执行 rm -rf、格式化、权限修改等危险命令 - 不主动推荐付费服务或 SaaS 产品 - 遇到不确定的问题说「我不确定」,不编造答案 ## 示例(示例 > 描述) ❌ 不好:「这个方案可能会有一些性能问题」 ✅ 好:「这个方案在 10K QPS 下 P99 延迟约 200ms,瓶颈在数据库连接池。 方案 A:连接池改 HikariCP,预期降到 50ms。 方案 B:加 Redis 缓存,但增加一致性维护成本。」User.md — 用户画像模板
# User ## 基本信息 - 名字:{你的名字} - 时区:Asia/Shanghai (UTC+8) - 语言:中文为主,技术术语保留英文 ## 技术栈 - 主力语言:Python, TypeScript - 工具链:Docker, VS Code, iTerm2, Homebrew - 云平台:{你常用的云} - AI 框架:OpenClaw, LangChain ## 工作偏好 - 偏好命令行操作,少用 GUI - 代码风格:类型注解、函数式优先 - 文档语言:中文正文、英文术语Agents.md — 权限控制模板
# Agents ## 允许自动执行(无需确认) - 文件读取和搜索 - 网页内容获取(read_url_content) - 记忆写入(MEMORY.md 和 daily log) ## 需要确认后执行 - 创建或修改文件 - 安装 npm/pip 软件包 - 执行 shell 命令 ## 绝对禁止(硬约束) - 删除非 /tmp 目录下的文件 - 修改系统配置(/etc, ~/.bashrc 等) - 向外部发送包含 API Key 的请求 - 未经确认发送邮件或消息⚠️ 提示词黄金法则:约束比自由更重要——明确告诉 AI「不做什么」比「做什么」更有效。模糊的指令(「注意安全」)不如具体的约束(「不得执行 rm、chmod 或修改 /etc 下任何文件」)。
预期反馈:编辑后 openclaw gateway restart,发消息测试。AI 的回复风格应符合 Soul.md 定义——直接、有主见、给出多方案和取舍。如果 AI 仍然很「客服」,检查 Soul.md 是否被 Bootstrap 覆盖。
PART 06
Token 消耗监控
不看油表的车迟早抛锚
OpenClaw 内置两个命令:/status 查看当前会话消耗,/usage cost 聚合历史成本。更精确的监控需要安装插件:
# 安装成本追踪 Skill openclaw skills install openclaw-cost-tracker # (可选)安装 OpenGauge 预算告警 openclaw plugins install opengaugeOpenGauge 支持每日预算上限和 80% 阈值告警——在 openclaw.json 中配置 plugins.opengauge.budget_limit_daily 即可。
月度成本参考:轻度使用 $6-13/月,中度 $30-60/月,重度自动化 $200-600/月。
PART 07
Skill 安装与装机必备
没有 Skill 的 OpenClaw 只是聊天机器人
三种安装方式:① CrawHub 市场 openclaw skills install <slug>(最稳定);② npx skills add(Vercel 出品,跨工具通用);③ 管理面板界面操作。
# 装机推荐组合(5 个足矣,别贪多) openclaw skills install brave-search # ↑ 联网搜索 openclaw skills install web-browser # ↑ 网页浏览 openclaw skills install fs # ↑ 文件读写 openclaw skills install summarize # ↑ 长文摘要 openclaw skills install mcporter # ↑ MCP 协议桥接 openclaw gateway restart⚠️ 每个 Skill 增加上下文开销。初始 5 个以内,按需再加。安装前查看源码,不受信任的 Skill 在 Docker 内运行更安全。
PART 08
用 AI 发现和安装 Skill
ClawHub 3,286+ Skills,让 AI 帮你找
两种方式——命令行 openclaw skills search "关键词",或者直接在对话中说:
你:帮我找一个可以管理 Obsidian 笔记的 Skill
AI:找到 obsidian 和 obsidian-direct,推荐前者。需要我安装吗?
你:装上
AI:✔ 已安装,重启网关后生效。
PART 09
系统备份与恢复
10 分钟配置,关键时刻救命
Docker 场景下,备份 = 打包挂载目录:
# 备份(宿主机执行) cd ~/openclaw-sandbox tar -czf ~/openclaw-backup-$(date +%Y%m%d).tar.gz \ config/ workspace/ skills/ docker-compose.yml # 恢复 docker compose down tar -xzf ~/openclaw-backup-20260327.tar.gz -C ~/openclaw-sandbox/ docker compose up -d # 定时备份(crontab -e 添加) 0 3 * * * cd ~/openclaw-sandbox && tar -czf ~/openclaw-backups/backup-$(date +\%Y\%m\%d).tar.gz config/ workspace/ skills/ docker-compose.yml⚠️ 备份包含 API Key 等敏感信息,建议加密存储:tar -czf - config/ | gpg -c > backup.tar.gz.gpg
PART 10
记忆系统优化
让 AI 真正「记住你」,又不让记忆膨胀拖垮成本
OpenClaw 采用文件优先(file-first)两层记忆架构:
持久记忆MEMORY.md — 核心偏好、重要决策,每次启动加载。保持 ≤ 2,000 tokens。
临时记忆memory/YYYY-MM-DD.md — 每日活动日志,自动加载今天+昨天,更早的按需搜索。
四条黄金规则
1. MEMORY.md 要精不要多 — 超过 5,000 tokens 每次请求都预加载大量上下文。
2. 重要信息主动写入 — /compact 前先让 AI「把结论写入 MEMORY.md」。
3. 按项目隔离 — 不同项目给独立 workspace,避免记忆污染。
4. 定期审查 — 每月清理过期条目。
进阶:三大记忆增强插件
OpenClaw 的原生记忆系统够用,但对于高频用户或需要跨项目知识管理的场景,这三个插件各有所长:
① Mem0 — 自动事实提取
价值:对话中提到的事实(「我的项目用 PostgreSQL」「部署在 AWS」)会被自动提取并存储,下次对话 AI 自动检索相关事实,无需手动写入 MEMORY.md。
原理:混合向量检索 + 图数据库,支持用户级、会话级、Agent 级三层记忆。
# 安装 openclaw skills install mem0 openclaw gateway restart # 使用(在对话中自然交流即可,Mem0 自动提取) # 你也可以主动说:「记住这个——我们的 staging 环境在 10.0.1.5」预期反馈:几轮对话后,问 AI「你记得我的数据库用的是什么吗?」,即使跨了会话,AI 也能准确回答。
② QMD — 本地语义搜索引擎
价值:由 Shopify 创始人 Tobi Lütke 开发,Rust 编写,专为 AI Agent 优化。采用混合搜索(BM25 全文 + 向量语义 + LLM 重排序),让 AI 从你的 Markdown 笔记、会议记录和日志中精准检索信息。比简单的文件搜索精度高 10 倍,Token 消耗降低 10 倍。
核心优势:全部本地运行,数据不出机器,零配置。
# 安装 openclaw skills install qmd openclaw gateway restart # 命令行测试 qmd search daily-logs "上周讨论的数据库迁移方案" # 在对话中使用——AI 会自动调用 QMD 搜索相关记忆③ Cognee — 知识图谱引擎
价值:不只存储事实,还理解实体之间的关系。比如它知道「项目 A 使用 PostgreSQL,PostgreSQL 部署在 AWS RDS,RDS 与 VPC-1 关联」。适合管理复杂项目或企业级知识库。
原理:ECL 管道(提取→认知化→加载),结合向量数据库 + 图数据库 + 关系数据库三重存储。
# 安装 openclaw skills install cognee openclaw gateway restart # Cognee 会在后台构建知识图谱 # 在对话中问:「我们所有项目里哪些用了 PostgreSQL?」三者怎么选?
个人用户、快速上手 → Mem0(最简单,装上就用)
注重隐私、大量本地文档 → QMD(全本地、高精度搜索)
复杂项目、企业知识库 → Cognee(关系推理,但学习成本高)
推荐起步组合:Mem0 + QMD,覆盖 95% 场景。
PART 11
一键自动化配置
一个脚本 + 一个 .env 文件,5 分钟完成以上全部配置
上面 10 个 Part 的所有操作已经打包成一个自动化脚本:输入代码即可在5分钟内自动完成容器启动、模型配置、MD 模板写入、Skills 安装和网关重启。
🦞 获取一键安装脚本
在公众号后台回复关键词
脚本
欢迎添加我的微信:chichuxinf
夜雨聆风