乐于分享
好东西不私藏

养虾之路——本地土生小龙虾(openclaw)(二)

养虾之路——本地土生小龙虾(openclaw)(二)

讲完了DEV模式下运行openclaw,再介绍一下如何使用正常的openclaw(非开发模式dev)

首先,在wsl下进入openclaw文件夹,先安装openclaw(上文说了,我下载的实际上是源码),按照AI的指令执行下列代码:

pip install -e .

执行后可能会发现,没有pip命令,这是由于没有安装pip工具,需要接着执行下述命令:

apt update

apt install python3-pip -y

安装完毕后验证一下pip3的版本:

pip3 –version

执行完毕后会显示pip的版本。

重新运行安装命令(pip install -e .),仍然报错,然后AI让我下载pipx:

apt install pipx -y

然后用pipx安装openclaw:

pipx install .

安装完成后仍然有问题,一通折腾后,AI让我输入以下命令给它看:

cd~/openclaw

ls -la

ls openclaw/ 2>/dev/null || echo “openclaw 目录不存在”

cat pyproject.toml | head -30

然后我把输出的东西给了AI去看,它终于明白了问题:

git clone的OpenClaw 不是 Python 项目,而是 Node.js 项目

从输出可以看到:

 node_modules/ 目录(Node.js 依赖)

 koffi 等 Node.js 原生模块

没有 openclaw/ Python 包目录

AI又给了我命令让我执行后把结果给它看:

cd ~/openclaw

# 1. 查看项目类型

cat package.json | head -30

# 2. 查看可用脚本

cat package.json | grep -A 15 ‘”scripts”‘

# 3. 查找编译后的文件

ls -la dist/ 2>/dev/null || echo “无 dist 目录”ls -la build/ 2>/dev/null || echo “无 build 目录”

# 4. 查找入口文件

find . -maxdepth 3 -name “*.js” | grep -E “(gateway|cli|index|main)” | head -5

我把执行后的内容粘贴后发给AI,它给了最终的确认:

OpenClaw 是 Node.js 项目,已经编译好了(有 dist/ 目录)

入口文件是 openclaw.mjs(根据 package.json 中的 “bin”: {“openclaw”: “openclaw.mjs”})

dist 目录已存在且包含大量编译后的文件

然后,给我正确的启动命令:

cd ~/openclaw

# 使用 Node.js 直接运行

node openclaw.mjs –version

我终于看到了我的小龙虾版本号:OpenClaw 2026.3.27 (7a87816)。

运行启动网关命令:

node openclaw.mjs gateway run

启动后发现端口被占用,于是调用命令:

node openclaw.mjs gateway stop

Stemd中自动执行的任务被终止,端口释放。(Stopped systemd service: openclaw-gateway.service

然后,重新执行启动网关命令:

node openclaw.mjs gateway run

这下正常运行了:

为了方便使用,创建别名

# 添加到 ~/.bashrc

echo ‘alias openclaw=”node ~/openclaw/openclaw.mjs”‘ >> ~/.bashrc

source ~/.bashrc

现在可以直接使用:

openclaw –version

openclaw gateway run

这时候打开UI(windows下http://127.0.0.1:19001),可以先到下面的界面:

距离成功很近了。

新开一个wsl命令窗口,在openclaw目录下输入下述命令:

node openclaw.mjs dashboard –no-open

你可以得到一个token:

Dashboard URL: http://127.0.0.1:19001/#token=xxxxxxxx

Copied to clipboard.

把红色部分粘贴到上面截图部分的网关令牌内,点击连接,就进入到了龙虾的运行界面。

可以看到,默认大模型还不是我们本地的ollama。

有两种方法可以解决这个问题,一是运行下面命令:

cd ~/openclaw

node openclaw.mjs configure

系统会弹出图型化的配置界面:

│ ● Workspace (Set workspace + sessions)

│ ○ Model

│ ○ Web tools

│ ○ Gateway

│ ○ Daemon

│ ○ Channels

│ ○ Skills

│ ○ Health check

│ ○ Continue

选择MODEL就可以开始设置选择的大模型:

◇ Select sections to configure 

│ Model 

│ 

◇ Model/auth provider 

│ Ollama 

│ 

◇ Ollama base URL 

│ http://127.25.176.1:11434 

◇ Ollama mode 

│ Local 

│ 

◇ Models in /model picker (multi-select) 

│ 1 items selected Config overwrite: /root/.openclaw/openclaw.json , backup=/root/.openclaw/openclaw.json.bak) 

Updated ~/.openclaw/openclaw.json 

另一种方法就是直接在/.openclaw/openclaw.json 修改默认的配置参数,把大模型换成本地下载的大模型,比如:

“models”: [ 

{                                                                                                             

“id”: “qwen3-vl:8b-instruct-q8_0“,                                                                          

“name”: “qwen3-vl:8b-instruct-q8_0“,                                                                        

“reasoning”: false,                                                                                         

“input”: [                                                                                                  

“text”                                                                                                    

], 

openclaw.json修改完成后,可以启动gateway了:

node openclaw.mjs gateway run

如果发现19001端口被占用,那就杀掉进程重新启动。

kill -9 xxx

node openclaw.mjs gateway run

Windows打开 http://127.0.0.1:19001,我们就可以和我们的小龙虾对话了。(完结)