
///
PART 01
📋 前言:为什么要集成多个 AI 模型?
你是否遇到过:
不同任务需要不同 AI 模型(Claude 写代码、GPT 做创意、Kimi 做中文) 每个模型都要单独付费 API,成本高 管理多个 API Key 很麻烦
今天介绍一个方案:在 NAS 上部署 OpenClaw,集成多个主流 AI 平台到一个界面。
这不是"免费"方案,而是统一管理方案——你需要拥有各平台的账号(可以是免费试用版、订阅版或 API Key),OpenClaw 帮你把它们整合在一个地方使用。
///
PART 02
🎯 项目简介
OpenClaw-Zero-Token 是 OpenClaw 的一个分支,特点是:
🌐 统一网关:一个界面访问多个 AI 平台 🔄 多模型支持:DeepSeek、千问、Kimi、Claude、豆包等 🖥️ Web 界面:美观的聊天界面 🤖 工具调用:支持执行命令、读取文件、网页自动化 📱 多端访问:Web UI + API 接口 🔧 可本地部署:完全运行在自己的 NAS 上,数据不出内网
注意:你需要自行准备各 AI 平台的访问凭证(API Key 或已登录的浏览器会话),本项目仅提供集成层。
///
PART 03
⚠️ 重要说明
- 合规使用
:请遵守各 AI 平台的服务条款 - 合法凭证
:仅使用你合法获得的 API Key 或账号 - 个人学习
:适合个人学习研究,不建议用于商业生产 - 费用责任
:各平台可能产生费用,请自行了解定价 - 账号安全
:妥善保管凭证,不要泄露
///
PART 04
🏗️ 系统架构
你的 NAS (Docker)
├── OpenClaw Gateway (端口 3001)
├── Web UI 界面
├── 统一的 API 接口
└── 连接到各 AI 平台
├── DeepSeek API / Web
├── 千问 API / Web
├── Kimi API
├── Claude API
└── ...
///
PART 05
📦 部署步骤
步骤 1:准备环境
你的 NAS 需要:
步骤 2:创建项目目录
# SSH 登录 NAS
ssh your-nas-ip
# 创建目录
mkdir -p /volume1/docker/openclaw-multi-ai
cd /volume1/docker/openclaw-multi-ai
步骤 3:创建 docker-compose.yml
version: '3.8'
services:
openclaw:
image: ghcr.io/linuxhsj/openclaw-zero-token:latest
container_name: openclaw-multi-ai
restart: unless-stopped
ports:
- "3001:3001" # Web 界面和 API 端口
volumes:
- ./data:/app/.openclaw-zero-state # 持久化数据
- ./logs:/app/logs # 日志
environment:
- TZ=Asia/Shanghai
- NODE_ENV=production
步骤 4:准备各平台的访问凭证
你需要为要集成的每个平台准备凭证。常见方式:
方式 A:API Key(推荐,稳定)
DeepSeek:申请 API Key(https://platform.deepseek.com) 千问:申请 API Key(https://dashscope.aliyun.com) Kimi:申请 API Key(https://platform.moonshot.cn) 其他平台类似
方式 B:Web 会话(实验性,可能不稳定)
在浏览器中登录各平台 使用工具导出 Cookie(不推荐生产环境)
步骤 5:配置认证
首次运行需要进行配置:
# 启动容器
docker-compose up -d openclaw
# 执行配置向导
docker exec -it openclaw-multi-ai ./onboard.sh webauth
按照向导选择你准备好的平台,输入对应的 API Key 或完成登录流程。
对于 API Key 方式:
选择对应平台 选择 API Key 认证模式 输入你的 API Key
向导完成后,会生成配置文件 ./data/.openclaw-zero-state/openclaw.json,其中包含你配置的所有平台。
步骤 6:启动服务
# 使用脚本管理(如有)
docker exec -it openclaw-multi-ai ./server.sh start
# 或直接重启容器
docker-compose restart openclaw
步骤 7:访问 Web 界面
打开浏览器,访问:
http://你的NASIP:3001
你会看到一个聊天界面,可以开始对话了!
///
PART 06
💻 使用指南
查看可用模型
在聊天框输入:
/models
会列出所有已配置的模型及其上下文窗口大小。
切换模型
/model claude-web/claude-sonnet-4-6
/model deepseek-web/deepseek-chat
/model qwen-web/qwen-turbo
使用工具
OpenClaw 支持工具调用,可以:
读取本地文件: read_file执行命令: exec网页浏览: browser联网搜索: web_search等等...
示例对话:
你:帮我查看 /volume1/docker/iptv-api/logs/update.log 这个日志文件
AI:(自动调用 read_file)读取中...
你:执行 docker-compose ps 查看运行中的容器
AI:(自动调用 exec)正在执行...
API 调用
OpenClaw 提供 OpenAI 兼容的 API:
curl http://127.0.0.1:3001/v1/chat/completions \
-H "Content-Type: application/json" \
-d '{
"model": "deepseek-web/deepseek-chat",
"messages": [{"role":"user","content":"你好"}]
}'
///
PART 07
⚙️ 配置管理
配置文件位置
./data/.openclaw-zero-state/
├── openclaw.json # 主配置(模型、网关设置)
├── auth.json # 认证信息(API Keys / Cookies)⚠️ 敏感
└── agents/main/agent/ # Agent 配置
添加新模型
准备该平台的 API Key 或登录凭证 运行配置向导:
docker exec -it openclaw-multi-ai ./onboard.sh webauth
选择要添加的平台 输入凭证 重启服务
修改模型参数
编辑 ./data/.openclaw-zero-state/openclaw.json:
{
"models": {
"providers": {
"deepseek-web": {
"api": "deepseek-web",
"models": [
{
"id": "deepseek-chat",
"name": "DeepSeek Chat"
}
]
}
}
}
}
修改后重启容器。
///
PART 08
🔄 维护与排错
查看日志
docker logs -f openclaw-multi-ai
# 或
tail -f ./logs/*.log
凭证过期
某些平台的会话可能定期过期(Web 会话通常 30 天)。如果模型无法使用:
重新运行配置向导:
docker exec -it openclaw-multi-ai ./onboard.sh webauth
重新输入 API Key 或重新登录
环境诊断
docker exec -it openclaw-multi-ai node dist/index.mjs doctor
重启服务
docker-compose restart openclaw
///
PART 09
🌟 使用场景示例
场景 1:代码开发
你:用 TypeScript 写一个快速排序函数
AI:(使用 Claude 或 DeepSeek,生成代码)
你:这段代码有 bug,帮我调试
AI:(分析代码,定位问题)
场景 2:文档总结
你:读取这个 Markdown 文件并总结要点
AI:(调用 read_file,提取要点)
场景 3:信息查询
你:查询今天的 A 股行情
AI:(调用 web_search,实时搜索)
///
PART 10
📊 各平台对比
| DeepSeek | ||
| Claude | ||
| GPT-4 | ||
| 千问 | ||
| Kimi | ||
| 豆包 |
///
PART 11
🔐 安全建议
- 保护配置文件
: ./data目录包含敏感信息,设置正确权限 - 内网访问
:通过内网或 VPN 访问 Web UI,不要暴露到公网 - 定期备份
:定期备份配置和重要数据 - 使用强密码
:如果启用了认证,使用强密码 - 关注账单
:使用 API Key 时,关注各平台的使用费用
///
PART 12
🎯 与官方 API 对比
| 费用 | ||
| 管理 | ||
| 工具 | ||
| 会话管理 | ||
| 稳定性 | ||
| 多模型切换 | ||
| 生产就绪 |
///
PART 13
🎉 部署完成!
你现在拥有:
✅ 在 NAS 上运行的 AI 多模型网关 ✅ 统一的 Web 界面 ✅ 支持 10+ 主流 AI 平台 ✅ 工具调用能力 ✅ 完全本地化部署
开始体验多模型 AI 的魅力吧! 🚀
///
PART 14
📞 获取帮助
项目地址:https://github.com/linuxhsj/openclaw-zero-token 问题反馈:GitHub Issues 更多教程:关注「share虾🦐」公众号
///
版本:v1.0(2026-03-30)部署时间:约 30-60 分钟适用场景:个人学习研究
THANKS FOR READING
share虾🦐 · 折腾开源笔记技术分享
夜雨聆风