乐于分享
好东西不私藏

OpenClaw 新增捆绑 LM Studio Provider,全面支持本地大语言模型集成

OpenClaw 新增捆绑 LM Studio Provider,全面支持本地大语言模型集成

OpenClaw 新增捆绑 LM Studio Provider,全面支持本地大语言模型集成

OpenClaw 在最新版本中正式加入了捆绑的 LM Studio Provider,为本地运行的大语言模型带来了完整、开箱即用的集成支持。这一新增组件极大简化了用户将本地 LLM 接入 OpenClaw 的流程,让自托管模型的使用变得更加便捷高效。

此前,许多希望在本地运行大语言模型(如 Ollama、LM Studio、text generation webui 等)的用户反映,OpenClaw 对自托管 OpenAI 兼容端点的支持存在不足,配置过程较为复杂且不够稳定。LM Studio Provider 的推出正是为了攻克这一难点,使本地模型的接入变得即插即用,无需繁琐的手动配置。

开箱即用的配置引导:系统提供首次配置向导,以交互式界面引导用户一步步完成与 LM Studio 的连接设置,大幅降低上手门槛。

运行时模型自动发现:Provider 能够实时检测 LM Studio 中当前可用的模型列表,用户无需手动填写模型名称或 ID。

Stream preload 支持:针对流式输出场景进行了首 token 延迟优化,显著改善实时交互的响应速度。

本地 Embedding 用于记忆搜索:支持调用本地 embedding 模型,为语义搜索、记忆检索等高级功能提供完整的本地化支持。

隐私优先设计:所有模型推理任务均在用户本地设备上完成,数据不会离开当前环境,充分满足数据安全和隐私保护需求。

在 OpenClaw 的配置文件中添加以下内容,即可完成 LM Studio Provider 的基础设置:

{   “models”: {     “providers”: {       “lm-studio”: {         “endpoint”: “http://localhost:1234/v1”,         “api_key”: “lm-studio”       }     }   } }
开启方式

通过命令行工具执行以下命令,并按提示输入 LM Studio 的服务地址(默认值为 http://localhost:1234):

openclaw configure –provider lm-studio
LM Studio Provider 的加入,显著增强了 OpenClaw 在本地大语言模型生态中的集成能力。无论是出于离线使用、隐私合规、成本控制还是开发测试的需求,用户现在都可以通过简洁的配置,将 OpenClaw 与本地运行的 LM Studio 无缝对接,享受高效、安全、可控的 LLM 调用体验。

BestClaw 是由一万网络打造的 OpenClaw 专属云主机解决方案,集服务器 + API + 部署 + 售后于一体。

详情:https://www.

👍 点赞
🌟 收藏
⤴️ 分享
💌 关注

有问题或需要技术支持?

微信: vx Lw-1101

一万网络・专业云计算与安全服务商

© 2026 一万网络 | 作者: 一万网络 | 来源: 一万网络