乐于分享
好东西不私藏

零成本、零门槛、本地养(OpenClaw龙虾)-告别 API 费用Ubuntu系统完整教程

零成本、零门槛、本地养(OpenClaw龙虾)-告别 API 费用Ubuntu系统完整教程

零成本、零门槛、本地养(OpenClaw龙虾)-告别 API 费用Ubuntu系统完整教程

想拥有一个完全免费、私有、听你指挥的AI助手吗?今天,就手把手教你如何在Ubuntu系统上,用一台旧电脑就能本地部署强大的AI智能体框架——OpenClaw,并让它成为你的飞书聊天机器人,彻底告别API调用费用!

核心方案:我们将通过 Ollama 本地运行大语言模型,让 OpenClaw 作为“大脑”来调用,实现完全离线的AI智能体环境。

温馨提示:本教程旨在熟悉OpenClaw部署流程。使用纯CPU运行推理速度会较慢,请将其视为一个完美的练手项目,重在过程而非速度。


第一步:搭建基础环境

首先,确保你的Ubuntu系统已就绪,并安装以下核心工具。

1. 安装系统工具

打开终端,执行以下命令更新系统并安装必要工具:

sudo apt updatesudo apt install -y curl git

2. 安装Node.js

OpenClaw依赖于Node.js,请安装v22或更高版本:

sudo apt install -y nodejs

安装后,可通过

node -v

git --version

命令验证安装是否成功。


第二步:部署AI模型引擎 (Ollama)

我们将使用Ollama在本地托管大模型。

1. 一键安装Ollama

curl -fsSL https://ollama.com/install.sh | sh

2. 启动并设置开机自启

sudo systemctl start ollamasudo systemctl enable ollama

可使用 ollama --version验证安装。

3. 拉取一个轻量级模型

为了快速体验,我们先拉取一个超小模型:

ollama pull qwen3.5:0.8b

第三步:安装与配置OpenClaw

1. 一键安装OpenClaw

运行官方安装脚本:

curl -fsSL https://openclaw.ai/install.sh | bash

2. 运行初始化向导

这是配置AI的关键一步,请执行:

opendaw onboard

在出现的配置向导中,请遵循以下选择:

  • 启动方式:选择 QuickStart

  • 模型提供商 (Model/auth provider):选择 Custom Provider

  • API Base URL

  • 输入 http://127.0.0.1:11434/v1

  • API Key:可输入任意字符,例如 ollama

  • 端点兼容性 (Endpoint compatibility):选择 OpenAI-compatible

  • 模型ID (Model ID):输入你拉取的模型,例如 qwen3.5:0.8b

  • 后续关于搜索提供商、技能、钩子等选项,新手均可选择 Skip for now 或 No 暂时跳过。

看到“配置成功”的提示,说明AI大脑已就位。


第四步:连接飞书,让AI为你打工

配置飞书机器人,即可在飞书App里直接与你的私人AI对话。

1. 创建飞书自建应用

  • 访问 飞书开放平台,创建“企业自建应用”。

  • 填写机器人名称等基本信息,创建后记下 APPID

2. 配置应用权限与事件

  • 在“权限管理”中,搜索并开通 im:message 相关的所有权限。

  • 在“事件订阅”中,订阅 接收消息 事件,并选择“使用长连接接收事件”。

  • 完成配置后,务必“发布版本”并申请上线。

3. 在飞书中绑定与授权

  • 在飞书中与你的机器人对话,例如发送“你好”。

  • 机器人会回复一条包含 配对码 (Pairing code) 的提示,例如:TBTZ8F48

  • 回到Ubuntu终端,执行以下命令完成授权:

opendaw pairing approve feishu TBTZ8F48 # 请将TBTZ8F48替换为你的配对码

大功告成! 现在,你已可以在飞书里直接指挥你的本地AI助手执行任务了。


写在最后

通过以上四步,你已经成功搭建了一个私有的、免费的AI智能体环境。OpenClaw的强大之处在于其可扩展性,未来你可以为它安装各种Skill(技能)。

附录:一键卸载

如果你想清空所有OpenClaw组件(网关、配置、工作区),可使用以下命令:

opendaw uninstall --all --yes