
目前国内还是很缺AI人才的,希望更多人能真正加入到AI行业,共同促进行业进步,增强我国的AI竞争力。想要系统学习AI知识的朋友可以看看我精心打磨的教程 教程通俗易懂,还有各种段子风趣幽默,从深度学习基础原理到各领域实战应用都有讲解。注意,教程仅限真正想入门AI的朋友。
为什么你的AI助手应该"部署"在本地?
想象这样一个场景:你把所有秘密都告诉了一个住在大厂宿舍的"室友"——你让他帮你写情书、改简历、分析公司的财务报表。每次对话,这些信息都要先穿过半个地球,在别人的服务器里转一圈。有没有觉得哪里不对劲?就会变成一个路人皆知的秘密。
这就是当下大多数人与AI的相处模式。我们习惯了在网页端ChatGPT、在手机App里跟豆包聊天,却忘了数据隐私这件事就像家里的钥匙——你肯定不会把钥匙交给陌生人保管,对吧?
OpenClaw(社区爱称"小龙虾")的出现,就是为了解决这个问题。它不是又一个聊天机器人,而是一个运行在你自己电脑上的AI指挥中心。从2025年底那个被称为Clawdbot的周末小项目 ,到如今GitHub上斩获20多万Star的开源现象级作品,这个由奥地利开发者Peter Steinberger打造的框架,正在重新定义"个人AI助理"的边界。
今天这篇文章,咱们就来聊聊怎么把这位"数字室友"请进家门,顺便让它同时接入豆包和OpenAI两大"大脑",实现"本地运行,云端智能"的混搭玩法。
一、OpenClaw究竟是什么?别再把它当简单的微信机器人了
很多人第一次听说OpenClaw,是因为网上盛传的"100%AI生成代码"的噱头。确实,Peter Steinberger公开承认过,整个项目的代码几乎都是由Claude自动编写的,他本人更像是个"产品经理"角色。但这并不是重点。
重点是,OpenClaw本质上是一个AI Agent的通用框架。它通过在本机启动一个Gateway(网关)服务,默认监听18789端口,把你的本地环境变成一个AI可以直接操作的"数字工作台"。
更重要的是,它拥有对你本地文件系统的访问权限,可以执行命令、读写文件、甚至帮你初始化项目
这种设计的妙处在于数据主权。你的聊天记录、生成的文件、修改的代码,全都留在你自己的硬盘里,而不是某个云厂商的数据库中。对于那些处理敏感信息(比如财务数据、商业计划、个人日记)的场景,这简直就是刚需。
二、安装前的准备:你的电脑能不能养得起这只"小龙虾"?
别看OpenClaw功能强大,它对硬件的要求其实相当亲民。因为它本身只是一个"中间层",真正的计算量发生在模型端——如果你接的是OpenAI或豆包的云端API,本地几乎不需要什么算力。
接入豆包:让国产大模型住进你的本地环境
豆包(Doubao)作为字节跳动旗下的AI产品,在中文理解和语音交互方面有着不错的表现。把豆包接入OpenClaw的流程,需要借助Coze平台作为"中转站"。
三、 在Coze上搭建桥梁
已经安装OpenClaw完成,并且正确配置。如果没有安装,请联系我获取详细教程。
3.1 接入Coze
整个接入路径是这样的:豆包 ↔ Coze智能体 ↔ OpenClaw本地服务。
首先,你需要访问Coze的开发者平台,登录后创建一个新的智能体。记得点击右上角的"回到旧版"按钮,因为新版界面有些功能还在调整中。
在智能体配置页面,关键的一步是更改类型为"对话流"。选择添加"对话流"后,点击"官方示例",找到libai模板并复制。这个模板提供了基础的HTTP回调能力,正好用来对接OpenClaw。
进入"对话流配置"后,把默认的模型改成**“豆包角色扮演模型”**。这个版本对长对话的支持更好,也支持更自然的语音交互。配置完成后,先点击"发布"并选择发布到"豆包",测试一下基础功能是否正常。
3.2 打通本地与Coze的通信
这是最技术向的一步。你需要在Coze的"对话流"中添加一个HTTP请求节点,让它能够调用你本地运行的OpenClaw Gateway。
由于本地服务通常在内网,而Coze在公网,这里需要解决内网穿透的问题。最简单的方案是使用Cloudflare Tunnel或者ngrok ,把你的本地18789端口映射到一个公网URL。
在OpenClaw这边,你需要在配置文件中添加对这个Webhook的响应逻辑。编辑~/.clawdbot/config.json,在agents部分添加一个新的endpoint:
四 OpenAI集成:给"小龙虾"装上最强大脑
相比豆包需要通过Coze中转,OpenAI的接入要直接得多。OpenClaw原生支持OpenAI的API格式,只需要配置好密钥就能直接用。
夜雨聆风