从本地模型到免费云端,成功接入微信!
继上一篇文章《【手把手教程】在Windows部署OpenClaw》之后,我终于成功让这个强大的AI助手“活”了起来,并且接入了微信,可以用免费的模型进行日常对话和联网搜索了。
这篇文章就是记录我从选模型“踩坑”到最终找到免费好用方案的全过程,希望能帮你跳过一些不必要的弯路。
回顾与现状:环境已就绪
在上一篇文章的结尾,我们已经在WSL(Ubuntu)环境中成功安装好了OpenClaw,并且完成了基础配置。当时系统里已经装好了Node.js v22+、编译工具等所有依赖,也通过openclaw onboard --install-daemon完成了初始化。
我的电脑配置是16GB内存,WSL只分到了8GB。这个硬件限制,在后续选择模型时成了一个重要的影响因素。
Ollama的尝试与局限
首先尝试的是最简单、最直接的方案——本地运行模型。Ollama是一个可以在本地运行大模型的工具,安装方便,而且完全免费。
我按照OpenClaw向导的提示,将模型提供商选为 Ollama,并拉取了gemma3:4b这个模型(因为我的内存有限,只能跑参数较小的模型)。配置完成后,满怀期待地在终端里敲下了第一句“你好”。
然而,现实给了我一个小小的打击。模型返回了一个错误:
run error: Ollama API error 400: {"error":"registry.ollama.ai/library/gemma3:4b does not support tools"}这里的“tools”可以理解为AI助手的“能力开关”,比如让它执行代码、搜索网页等。显然,我选择的这个模型并不支持这些高级功能。虽然可以通过换一个支持tools的模型来解决,但我的内存跑不动更大的模型。即使能跑,本地模型也无法联网,知识更新不及时,回答质量也差强人意。
结论:受限于我的硬件条件(16GB内存,WSL分8GB),本地模型这条路走不通,效果不佳且无法联网。
Ollama Cloud的免费方案
既然本地跑不动,那就把目光投向云端。在OpenClaw的配置选项中,我发现Ollama除了本地模式,还提供了 Cloud + Local 的混合模式。
选择这个模式后,OpenClaw会弹出一个二维码和一个链接,让我登录自己的Ollama账户。登录后,就可以使用Ollama Cloud上托管的一些模型了。这里最大的惊喜是——Ollama Cloud上的一些模型是免费使用的!
在模型列表中,我发现了一个宝藏模型:MiniMax-M2.1-highspeed。它来自知名AI公司MiniMax,参数规模适中,最重要的是,它支持“工具调用”(也就是OpenClaw报错里提到的“tools”),并且完全免费!
更巧的是,在配置过程中,OpenClaw还贴心地问我要不要开启“Web Search”功能。我当时选择的是 DuckDuckGo Search (experimental)——这个搜索引擎不需要任何API密钥就能使用!这意味着,我的AI助手不仅免费,还可以联网了!
微信接入:超简单
模型的问题解决了,最后一步就是把AI助手接入我日常使用最多的平台——微信。
OpenClaw的微信接入方式出乎意料的简单,不需要申请公众号,也不需要复杂的企业微信配置。只需要在终端里执行一个命令:
npx -y @tencent-weixin/openclaw-weixin-cli@latest install命令运行后,终端里会弹出一个二维码。我拿出手机,打开微信扫一扫,确认登录。几秒钟后,终端显示“登录成功”,我的微信就成功连接上了OpenClaw的网关!
现在,我的AI助手已经住在了我的微信里。我可以在微信里直接和它对话,它会调用配置好的MiniMax模型,还能自动使用DuckDuckGo搜索网络信息来回答我的问题。整个体验非常流畅。
总结与复盘
回顾整个探索过程,我经历了三个阶段的尝试:
本地模型(Ollama):受硬件限制,模型效果差,且无法联网,放弃。 Ollama Cloud:发现了免费的MiniMax-M2.1-highspeed模型,支持工具调用。 微信接入:通过官方命令行工具,扫码一键登录,成功接入。
最终的配置方案是:OpenClaw + Ollama Cloud(使用MiniMax-M2.1-highspeed模型) + DuckDuckGo联网搜索 + 微信频道。这套方案完全免费,对硬件要求低(模型跑在云端),并且满足了日常使用的核心需求:智能对话和实时联网获取信息。
如果你也和我一样,想在自己的微信里“养”一个免费的AI助手,不妨试试我的这套方案。过程中可能会遇到一些小问题,但相信看到最后的你一定可以成功!
希望这篇记录对你有所帮助。如果有任何疑问或更好的方案,欢迎交流讨论。
夜雨聆风