乐于分享
好东西不私藏

OpenClaw调研文档

OpenClaw调研文档

云原生基础软件、AI Infra 创新领导者

博云

www.bocloud.com.cn

摘要

本调研文档围绕 GitHub 上爆火的开源个人 AI Agent 框架 OpenClaw 展开全面分析,介绍了其曾用名、核心定位与传统 Chatbot 的差异化特点,详细复盘了 Windows + WSL 环境下该框架的安装、初始化流程,重点阐述了对接本地 LM Studio 模型的关键配置步骤,同时梳理了 OpenClaw 依托 “Skills” 实现的信息获取、文件操作等六大核心能力,并结合实际场景列举了其在隐私保护、远程协助、自动化管理等方面的应用方式。调研最终明确,OpenClaw 是 BYOM 趋势下的典型代表,能够基于 Windows + WSL + LM Studio 搭建出免费、数据私有、高扩展性的 AI Agent 系统,为个人私有化智能助理的搭建提供了优质解决方案。

项目介绍

OpenClaw(曾用名 ClawdBot, MoltBot)是一个近期在 GitHub 上爆火的开源个人 AI Agent(智能体)框架。它的核心理念是提供一个运行在用户本地设备上、拥有“双手”的 AI 助手。

与传统的 Chatbot(如网页版 ChatGPT)不同,OpenClaw 的特点在于:

  • 本地优先 (Local-First): 核心逻辑运行在你的设备上(Node.js 环境),数据掌握在自己手中。

  • 全渠道集成 (Omnichannel): 你不像是在和一个网页对话,而是通过你常用的聊天软件(如 Telegram, WhatsApp, Discord, Slack 等)与它交流。它就像你的微信好友一样存在。

  • 持久记忆 (Persistent Memory): 它会自动记录用户的偏好、历史对话和上下文,不会像普通 LLM 那样刷新页面就“失忆”。

  • 工具调用能力 (Agentic Capabilities): 它不仅能说话,还能通过“技能(Skills)”执行操作,如浏览网页、读写文件、运行代码、管理日程等。

简而言之: OpenClaw 是一个可以连接任意大模型(包括本地 LM Studio)并集成到你即时通讯软件中的私人全能管家。

安装过程

基于 Windows + WSL (Windows Subsystem for Linux) 的环境,以下是标准的安装路径复盘:

2.1 环境准备

  1. 启用 WSL: 在 Windows 上通过 PowerShell 运行 wsl –install 安装 Ubuntu 等发行版。

  2. 环境依赖: OpenClaw 是基于 TypeScript/Node.js 构建的,需要 Node.js 环境(建议 v18+)。

  • 在 WSL 中安装 Node.js:

curl -fsSL https://deb.nodesource.com/setup_20.x | sudo -E bash -sudo apt-get install -y nodejs

2.2 安装 OpenClaw

OpenClaw 提供了方便的一键安装脚本,直接在 WSL 终端中执行:

curl -fsSL https://openclaw.ai/install.sh | bash

或者通过 npm 全局安装:

npm install -g openclaw

2.3 初始化

安装完成后,运行引导程序进行初始化:

openclaw onboard

在此过程中,系统会引导用户选择 LLM 提供商(通常默认为 Anthropic 或 OpenAI),在这里可以跳过,我们将在后续步骤手动修改为 LM Studio。

配置本地模型

这是你实践中的关键步骤。为了让 OpenClaw 使用本地的 LM Studio 算力(而不是付费的 API),需要修改配置文件 openclaw.json

3.1 配置文件位置

在 WSL 环境中,配置文件通常位于:

  • ~/.openclaw/openclaw.json

3.2 修改openclaw.json

你需要将模型提供商指向 LM Studio 兼容的 OpenAI 接口。

前提条件:

  • LM Studio 已启动并加载模型。

  • LM Studio 的 Local Server 已开启。

配置示例:

3.2 重启openclaw

openclaw gateway restart

重启完即可使用配置好的本地模型

支持的能力

OpenClaw 的强大之处在于其 Agentic(代理) 能力,它通过 “Skills”(技能)扩展功能:

  1. 信息获取 (Browsing):

  • 支持通过 Puppeteer 或 API 浏览互联网,实时搜索信息(OpenClaw 能够“阅读”网页内容并总结)。

  1. 文件系统操作 (FileSystem):

  • 可以直接读取、写入、修改用户指定目录下的文件(在 WSL 中即为 Linux 文件系统,也可以挂载 Windows 目录 /mnt/c/)。

  1. 代码执行 (Code Execution):

  • 拥有解释器能力,可以编写并运行 Python 或 JavaScript 代码来解决数学问题、处理数据或生成图表。

  1. 持久化记忆 (Memory):

  • User Profile: 记住你的名字、职业、偏

  • Context: 记住几天前的对话内容,无需重复提供背景信息。

  1. 主动行为 (Proactivity):

可以设定定时任务(Cron jobs),例如“每天早上8点通过 Telegram 给我发送天气简报”。

  1. 多模态支持 (Vision):

如果底层连接的模型支持视觉(如 LLaVA 或 GPT-4o),你可以发送图片给它进行分析。

使用场景

结合本地 LM Studio,OpenClaw 可以在隐私完全保护的情况下通过以下场景使用:

  1. 隐私敏感的个人助理:

  • 场景:
     你有一些包含个人隐私文档需要整理。
  • 操作: 将文档放在 WSL 目录下,让 OpenClaw 读取并总结,通过 Telegram 发送给你。全过程数据不离本地。

  1. 全天候即时百科/编码助手:

  • 场景:
     在手机上(通过 Telegram/WhatsApp)直接向家中电脑上的 OpenClaw 提问代码问题。
  • 优势: 无论身在何处,只要家中电脑开着,你就有了一个私有的、免费的强力 AI 助手。

  1. 自动化监控与简报:

  • 场景: 让 OpenClaw 每天定时爬取特定的技术博客或新闻站点(使用 Browsing 技能),总结成摘要发送到你的聊天软件中。

  1. 家庭服务器管家:

  • 场景:
     由于运行在 WSL/Linux 上,它可以执行 Shell 命令。你可以通过聊天指令让它检查服务器负载、重启某个 Docker 容器(需谨慎配置权限)。

总结

OpenClaw 是目前 “Bring Your Own Model (BYOM)” 趋势下的典型代表。通过 Windows + WSL + LM Studio + OpenClaw 构建了一套完全免费、数据私有、且具备极高扩展性的 AI Agent 系统。

相关阅读

关于博云AIOS

AIOS是博云专为AI应用推出的企业级一站式人工智能操作系统,屏蔽底层异构算力差异,面向AI大模型、生信、仿真渲染、气象、智能控制、图像视频处理等领域的分布式计算提供调度器管理,在网络、存储等基础能力方面增强高性能适配,为AI应用提供稳定、高效、可观测的部署与服务运行时管理能力。

同时AIOS提供轻量化多框架AI训推工具链平台,支持多种分布式AI深度学习框架,模型推理框架,IDE工具,算法、模型仓库,以及模型量化和转化能力,覆盖数据标注、算法开发、模型训练、模型推理的全生命周期。

AIOS可以帮助企业和开发者自主构建人工智能业务,助力企业保持行业领先能力。

本站文章均为手工撰写未经允许谢绝转载:夜雨聆风 » OpenClaw调研文档

评论 抢沙发

8 + 7 =
  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址
×
订阅图标按钮