乐于分享
好东西不私藏

多个龙虾(openclaw)平替方案对比

多个龙虾(openclaw)平替方案对比

1. 🦐 PicoClaw — Go 实现的超轻量 AI 助手

背景:由 Sipeed 开发,受 nanobot 启发,用 Go 从零重写,号称 95% 由 AI Agent 自举生成。

✅ 优点
❌ 缺点
极致轻量:< 10MB RAM,支持 $10 级硬件(如 RISC-V 板卡、旧安卓手机)
项目非常年轻(2026年2月才发布),早期稳定性问题明显
启动极快:0.6GHz 单核下仍不到1秒启动
README 中明确警告内存占用可能已升至 10–20MB
真正的跨平台二进制:RISC-V、ARM、MIPS、x86
明确声明不要在 v1.0 前部署到生产环境,存在网络安全漏洞
有 Web 控制台、Docker 支持、完善的频道系统
频道系统正在经历大规模重构(refactor/channel-system 分支),架构不够稳定
社区热度高(一周12K stars),有中英日葡法多语言文档
有仿冒域名/诈骗风险(README 特别做了安全声明)
由知名硬件厂商 Sipeed 维护,有硬件生态支撑
对重量级功能(多频道管理等)的支持仍不如 OpenClaw 完整

2. 🐱 NanoBot — Python 超轻量 AI 助手

背景:来自香港大学数据科学实验室,直接以 OpenClaw 为灵感,强调"99% 更少代码"实现核心功能。

✅ 优点
❌ 缺点
Python 实现,安装极简(pip install nanobot-ai),对开发者非常友好
Python 运行时开销大,RAM > 100MB,启动需 30s+,不适合嵌入式
代码极简,研究友好,便于二次开发和学习
相比 Go/Rust 实现,性能差距明显
更新频率极高(几乎每天都有 changelog),功能迭代快
功能覆盖比 OpenClaw 少,部分高级功能尚未实现
支持众多频道:Telegram、WhatsApp、Slack、Discord、QQ、飞书、微信
属于研究导向项目,生产稳定性存疑
支持 MCP、多实例、调度任务、vLLM 本地模型
需要 Python ≥ 3.11 环境,部署门槛高于二进制项目
有 PyPI 包,支持 Docker 部署、Linux 服务化
中文支持较弱(主要面向国际社区)

3. 🦀 ZeroClaw — Rust 实现的 AI 助手基础设施

背景:由哈佛/MIT/Sundai.Club 社区成员共建,定位为"AI Agent 工作流的运行时操作系统"。

✅ 优点
❌ 缺点
Rust 实现,内存极省(< 5MB),启动 < 10ms,安全性高
Rust 学习曲线陡,贡献门槛较高
架构设计成熟:Trait 驱动,Provider/Channel/Tool 全可替换
仿冒问题严重(zeroclaw.org/net 均为第三方冒充,README 多处警告)
跨平台单一二进制(ARM、x86、RISC-V),兼顾嵌入式和云端
项目起步较晚,生态成熟度不如 OpenClaw
有完善的文档体系(多语言30+,含运维手册、安全指南)
需要安装 Rust 工具链,源码编译对普通用户不友好
有 Python 配套包(LangGraph-based tool calling)、ESP32固件支持
定位偏"基础设施"而非开箱即用,需要一定配置成本
安全设计完善:strict sandboxing、explicit allowlist、工作区隔离
仍处于早期,部分安全文档是 proposal/roadmap 性质而非实际已实现

4. 🧪 NanoClaw — 面向个人用户的轻量 AI 助手

背景:对 OpenClaw 的极简重新实现,哲学上强调"小到可以读懂",基于 Claude Agent SDK 运行。

✅ 优点
❌ 缺点
代码库极小(一个进程 + 少数文件),安全审计友好
强依赖 Claude Code
(Anthropic),模型不可替换,供应商锁定风险高
安全性来自 OS 级隔离(Docker/Apple Container),而非应用层规则
目前仅支持 macOS(Apple Silicon)和 Windows(x86),不支持 Linux
"AI 原生"哲学:用 Claude Code 本身来配置、调试、扩展自身
高度个人化的设计(fork-first 模式),不适合团队或产品化使用
支持多频道(WhatsApp、Telegram、Discord、Slack、Gmail)、定时任务、Agent Swarm
依赖 Claude Code 订阅,使用成本较高
通过 Claude Code Skill 扩展,而非直接修改核心代码,架构干净
无独立 UI/监控面板,所有操作依赖 Claude CLI
支持每个群组/会话独立 CLAUDE.md 记忆和容器隔离
文档体系相对简单,社区支持有限

5. 🦞 IronClaw — 安全优先的个人 AI 助手

背景:由 NEAR AI 出品,强调"你的 AI 要为你服务,而非对抗你",安全设计极为突出。

✅ 优点
❌ 缺点
安全架构最完善:WASM 沙箱 + Prompt Injection 防御 + Credential 泄漏检测 + Allowlisting
需要 Rust + PostgreSQL + pgvector,安装配置较复杂
数据完全本地化(存在自己的 PostgreSQL),AES-256-GCM 加密,零遥测
强依赖 NEAR AI 账户
进行认证,使用门槛较高
支持任意 OpenAI 兼容 endpoint(OpenRouter、Ollama、vLLM 等),无供应商锁定
Rust 实现,非专业开发者上手难度较大
自我扩展能力:动态构建 WASM 工具,无需重启加载新插件
项目体量较大(Rust + PostgreSQL),资源消耗高于 ZeroClaw/NullClaw
持久记忆系统:混合向量+全文检索(RRF 融合)
社区规模相对有限,生态成熟度待提升
支持多频道(REPL、Webhook、Telegram、Slack、WebGateway)、定时任务、并行 Job
定位偏向个人高级用户,对普通用户不够友好

6. 🏆 OpenClaw — 事实上的"生态原点"

背景:TypeScript/Node.js 实现,是上述所有项目的参照对象,功能最完整,但也最重。

✅ 优点
❌ 缺点
功能最完整
:拥有 iOS/Android/macOS 原生 App,插件系统(Zalo、Tlon/Urbit、vLLM 等),语音唤醒(Swabble)等
极重
:> 1GB RAM,启动需 500s+(0.8GHz),需要 Mac Mini 级别硬件
插件生态最丰富:DiffViewer、多平台频道、技能系统(ClawHub)等
TypeScript/Node.js 实现,运行时开销大,不适合嵌入式/边缘计算
有跨平台客户端(iOS、Android、macOS)和完整 Web Gateway
代码库庞大(~半百万行代码,53个配置文件,70+依赖项),维护复杂
社区最成熟,文档体系最完善(多语言,含 i18n 翻译记忆体)
安全隔离在应用层(allowlist + pairing code),非真正 OS 级隔离
有 Skill 生态系统(ClawHub),支持社区共建
高学习曲线,对普通开发者不友好

7. 🐜 MimiClaw — $5 ESP32 芯片上的 AI 助手

背景:号称"全球首个在 $5 芯片上运行 OpenClaw 的 AI 助手",纯 C 语言实现,运行在 ESP32-S3 上。

✅ 优点
❌ 缺点
极致边缘计算
:纯 C 实现,运行在 $5 ESP32-S3,0.5W 功耗,24/7 运行
硬件门槛高
:需要 ESP32-S3 开发板(16MB Flash + 8MB PSRAM),ESP-IDF v5.5+ 开发环境
无需 Linux 或 Node.js,只需 C 运行时
受限于 ESP32 硬件资源,功能不可能像软件实现那样丰富
支持 Anthropic Claude 和 OpenAI GPT 双 provider,运行时可切换
配置需要重新编译固件(尽管有 NVS CLI 运行时覆盖)
本地记忆(跨重启持久化),支持 Telegram 和飞书交互
功能相对简单,主要面向极客/硬件爱好者
序列 CLI 调试支持,双层配置系统(编译时 + 运行时)
安装流程较繁琐(Ubuntu/macOS 均需安装大量依赖)
轻量化哲学彻底:没有任何运行时框架
只有单一硬件平台支持(ESP32-S3),可移植性受限

8. 🦞 NullClaw — Zig 实现的极限轻量 AI 助手

背景:Zig 语言实现,号称"最小全功能自主 AI 助手基础设施",对标所有上述项目并在性能上全面领先。

✅ 优点
❌ 缺点
极限小巧
:678 KB 静态二进制,~ 1MB RAM,< 2ms 启动,仅依赖 libc
Zig 语言小众
,开发者社区小,贡献门槛极高
测试覆盖最高(5,300+ 测试),工程质量突出
要求精确的 Zig 版本(0.15.2),不接受其他版本
功能意外完整:50+ provider、19频道、35+ 工具、10种记忆引擎、语音、MCP、subagent
项目相对年轻,生态和社区尚未成熟
安全设计全面:landlock、firejail、bubblewrap、docker 多层沙箱
文档仅英中两种语言,国际化覆盖不如 ZeroClaw
vtable 接口设计,所有核心系统(provider/channel/tool/memory)可热替换
知名度相对其他项目较低(stars 较少)
支持从 OpenClaw 迁移记忆数据,降低切换成本
Zig 编译速度本身相对慢,开发循环不如 Go/Python 快

🗺️ 横向对比速览

项目
语言
RAM
启动时间
适合场景
安全模型
OpenClaw
TypeScript
> 1GB
> 500s
功能完整的主力平台
应用层
NanoBot
Python
> 100MB
> 30s
研究/学习/快速原型
应用层
PicoClaw
Go
< 10MB
< 1s
嵌入式/廉价板卡
容器隔离
ZeroClaw
Rust
< 5MB
< 10ms
安全生产/边缘计算
OS 级
NanoClaw
JS/TS
较小
个人定制化/Claude 用户
容器隔离(OS级)
IronClaw
Rust
中等
隐私敏感/高安全需求
WASM 沙箱
MimiClaw
C
极小
极快
ESP32 物联网硬件
无(硬件隔离)
NullClaw
Zig
~1MB
< 2ms
极限边缘/追求性能
多层沙箱