北京大学·肖睿团队最近又分享了一份技术报告《OpenClaw001·龙虾使用入门:技术架构、生态、应用场景》,这份报告详细拆解了OpenClaw这个被称为“龙虾”的开源项目,是如何在短短两个月内狂揽25万GitHub Stars,甚至超越Linux和React,成为GitHub历史上增速最快的开源项目。

这不仅仅是一个软件的教程,更像是一场关于“自主智能体(Agentic AI)”如何从云端落地到我们每个人的桌面上的宣言。
1. 这份报告到底讲了个啥?
简单来说,这份报告是在宣告**:AI已经从“陪你聊天”的阶段(ChatGPT),进化到了“帮你干活”的阶段(OpenClaw)。**
- 主角是谁?OpenClaw
(中文圈叫它“龙虾”)。它是一个让你可以在自己电脑(Mac、Windows、甚至树莓派)上运行的本地AI助手。 - 它有啥不同?
以前的AI(比如ChatGPT)像一个关在笼子里的鹦鹉,只能跟你对话;OpenClaw则像是一个你家里的“智能管家”,它能连接你的微信、钉钉、飞书,还能操作你的文件、运行代码、甚至帮你写周报和做PPT。 - 核心卖点:数据私有
(你的数据都在自己硬盘里,不传给OpenAI)、本地优先(不依赖网络也能跑)、超级能干(能调用各种工具)。
2. 为什么OpenClaw能火成这样?
报告里用了一个很生动的词叫“全民养虾”,意思是大家都在自己电脑里养一只AI“龙虾”。它火的原因主要有三点:
- 技术成熟了(能干活了):现在的大模型(比如DeepSeek R1、Claude等)终于有了推理能力,不再是胡说八道,能真正拆解任务并执行了。
- 开源和生态(插件多):OpenClaw开源后,社区贡献了超过1万个插件(ClawHub),什么功能都有,大家一拥而上。
- 政策和资本助推:报告提到国内很多地方政府(如深圳龙岗、合肥)把这玩意儿当成了“新质生产力”,给了钱给政策,甚至出现了专门帮人“上门安装龙虾”的生意,Mac mini都因此卖断货了。
3. OpenClaw到底怎么用?
这部分是报告最硬核的地方,我把它翻译成人话给你听:
- 它的大脑(模型层):OpenClaw不生产AI,它只是AI的搬运工。你可以给它装上Claude、GPT-5、DeepSeek或者国内的Kimi、通义千问当它的“大脑”。
- 它的灵魂(SOUL.md):这是一个很有意思的设计。OpenClaw用一个叫
SOUL.md的文件来定义AI的性格和行为准则。比如你可以写:“你是一个效率狂魔,回答要简短,不要废话”。这个文件直接决定了AI好不好用。 - 它的记忆(Memory):它的记忆是分级的。有短期记忆(当前对话),还有长期记忆(存成Markdown文件)。最妙的是,你可以直接打开它的记忆文件去修改,比如告诉它“我老板叫张三”,它下次就记住了。
- 它的手脚(Skills/工具):它能通过插件控制浏览器、读写文件、发邮件。报告里提到一个叫
ReAct的模式(思考-行动-观察),就是它干活的逻辑:先想怎么做,然后动手做,做完看一眼结果对不对,不对就再调整。
4. 国内大厂都在干嘛?
报告专门花篇幅讲了国内各大厂的“龙虾平替”或相关产品,因为直接用原版OpenClaw对普通人来说还是太难了(需要懂代码)。国内厂商做了很多“傻瓜化”的封装:
| LobsterAI (有道) | |||
| Kimi Claw | |||
| ArkClaw | |||
| WorkBuddy | |||
| AutoClaw |
5. 个人见解
1)“从驾驶员变成经理”的隐喻很精准。报告最后提到,我们要从亲自开车(操作电脑),变成给AI下指令的经理。这确实是未来的方向。OpenClaw这种“本地优先”的模式,可能是解决大家对隐私焦虑的最佳方案——毕竟谁也不想自己的私密工作数据上传到云端被大厂看到。
2)Markdown即一切。OpenClaw用简单的文本文件(Markdown)来管理AI的记忆和性格,这是一个非常高明的设计。它意味着你不需要昂贵的数据库,直接用文件系统就能管理你的AI,门槛降得非常低。
3)国内“新质生产力”的落地样本。报告里提到的政府补贴、硬件断货,说明AI Agent不再是极客玩具,真的开始影响实体经济了。这种“产、学、研、政”结合的爆发速度,在其他国家很少见。
4)安全风险被轻描淡写了:报告虽然提到了供应链攻击(恶意插件),但我认为这在2026年是一个巨大的隐患。你想啊,一个能操作你文件、发微信、甚至有Shell权限的AI,如果被一个恶意插件控制了,后果不堪设想。报告里教大家怎么装插件,但对“如何鉴别插件是否安全”的讨论还不够深。
5)硬件门槛其实不低:虽然报告说树莓派也能跑,但如果你想在本地跑一个能干活的模型(比如Qwen3.5-32B),没有一张好的显卡(GPU)是根本玩不转的。报告可能过于乐观地估计了普通用户的硬件配置。
6)幻觉问题依然存在:不管包装得多么华丽,现在的LLM本质上还是会“一本正经胡说八道”。报告里提到的ReAct模式虽然能减少错误,但不能根除。如果AI在执行“转账”或者“删除文件”这种高危操作时产生幻觉,目前的防护机制(如Human-in-the-loop)可能还不够完善。
https://pan.baidu.com/s/1mzN8vMoVWvk7BGd-6iHuoA?pwd=wjv9
提醒一句:以上资料请仅用于个人学习和研究之用,勿用于任何商业目的,切记!!!
夜雨聆风