OpenClaw和ClaudCode本地部署快速指引
OpenClaw是作为后台常驻的智能体服务(AgentService)运行,Claude Code 本质上是一个 Node.js 驱动的智能 CLI 代理,它通过 Anthropic 的 MCP (Model Context Protocol) 协议与本地系统交互。本文章提供一套生产级的本地部署方案:
1、OpenClaw本地部署方案
OpenClaw建议采用Docker化部署,以确保其隔离性及对本地运维脚本(Shell/Python)的调用权限受控。
1.环境准备:
-
操作系统:Ubuntu 22.04+或CentOS 8+。
-
硬件建议:4C/8G(不含LLM),若本地运行模型则需NVIDIA GPU(16G+ 显存)。
-
依赖软件:Docker,Docker-Compose,Git。
2.克隆项目与配置:
git clone https://github.com/OpenClaw/OpenClaw.gitcd OpenClawcp .env.example .env
3.配置本地LLM接入(核心):
编辑.env文件,将API端点指向本地部署的Ollama或vLLM。
LLM_API_BASE=http://localhost:11434/v1 #指向本地Ollama或者模型服务LLM_MODEL=llama3:70b #建议使用具强推理能力的模型SOUL_DIR=./my_soul #长期记忆存储路径
4.启动服务:
docker-compose up -d
5.初始化Skill库:
进入/skills目录,将您之前定义的本体检索脚本和自愈脚本放入其中,OpenClaw会自动扫描并加载。
6.相关CLI命令管理
1.核心管理命令 (Core Management)
|
命令 |
说明 |
备注 |
|
openclaw onboard |
初始化向导 |
配置 API Key、模型供应方及持久化存储。 |
|
openclaw status |
服务状态查询 |
查看守护进程及各网关(Gateway)的运行情况。 |
|
openclaw update |
自动更新 |
将 OpenClaw 升级至最新版本。 |
|
openclaw version |
版本查看 |
确认当前软件版本及核心组件信息。 |
2. 网关与连接命令 (Gateway Control)
OpenClaw 需要通过网关与外部通讯软件(企业微信、Telegram 等)连接。
-
启动/停止特定网关:
openclaw gateway start telegram # 启动 Telegram 机器人openclaw gateway stop wechat # 停止企业微信接入openclaw gateway restart --all # 重启所有已配置的网关 -
查看连接日志:
openclaw gateway logs telegram #实时查看网关收发消息的日志
3. 技能与工具链命令 (Skills & Tools)
OpenClaw 的强大在于其扩展性,这些命令管理 AI 能够执行的操作(即 Skills)。
-
技能管理:
openclaw skills list # 列出当前加载的所有技能openclaw skills add <git-url> # 从 GitHub 添加第三方运维技能包openclaw skills test <skill-name> # 在本地测试特定技能是否正常工作 -
交互式调试:
openclaw chat # 启动本地 TUI (终端交互界面) 直接进行指令调试
4. 专家级:守护进程与配置操作
-
需要手动干预系统配置:配置文件路径: ~/.openclaw/config.yaml(所有 API、模型及网关配置均在此)。
-
后台进程管理:
# 如果 onboard 时没有安装为系统服务,可手动管理openclaw daemon start # 启动核心代理引擎openclaw daemon stop # 停止核心代理引擎 -
清理记忆/存储:
openclaw reset --memory # 清除 AI 的长期记忆(慎用)
2、ClaudCode本地部署方案
Claude Code 本质上是一个 Node.js 驱动的智能 CLI 代理,它通过 Anthropic 的 MCP (Model Context Protocol) 协议与本地系统交互
1.核心依赖
-
Node.js:必须 ≧v18.19.0。建议使用nvm管理版本。
-
Git:用于版本控制和代码上下文理解。
-
网络:需要能够访问Anthropic API域名。
2.安装ClaudCode
# macOS, Linux, WSL:curl -fsSL https://claude.ai/install.sh | bash# 或者npm install -g @anthropic-ai/claude-code# Windows PowerShell:irm https://claude.ai/install.ps1 | iex# Windows CMD:curl -fsSL https://claude.ai/install.cmd -o install.cmd && install.cmd && del install.cmd
{"env": {"CLAUDE_CODE_ATTRIBUTION_HEADER": "0","ANTHROPIC_BASE_URL": "https://domain-name","ANTHROPIC_AUTH_TOKEN": "${YOUR-API_KEY}","ANTHROPIC_MODEL": "glm-4.7-no-think","ANTHROPIC_DEFAULT_OPUS_MODEL": "glm-4.7-no-think","ANTHROPIC_DEFAULT_SONNET_MODEL": "glm-4.7-no-think","ANTHROPIC_DEFAULT_HAIKU_MODEL": "glm-4.5-air-no-think","CLAUDE_CODE_SUBAGENT_MODEL": "glm-4.7-no-think","CLAUDE_CODE_MAX_OUTPUT_TOKENS":64000,"hasCompletedOnboarding": true}}
夜雨聆风