上一期我们让OpenClaw“开了口”,但不知道你有没有发现:同样一句话,用不同的模型,回答的质量、速度、风格完全不一样。
有的模型像个博士,引经据典;有的像个实习生,回答问题颠三倒四。
这背后的关键,就是模型。
今天我们就来聊聊:OpenClaw支持哪些模型?怎么配置?哪些免费又好用?哪些值得花钱?一文帮你搞懂。
一、OpenClaw支持哪些“大脑”?
OpenClaw本身是一个“壳”,它需要接入一个大语言模型(LLM)来干活。目前支持的模型服务商主要有:
结论:如果你只想体验,用阿里云百炼的Qwen系列最划算(免费);如果你追求极致性能,可以考虑Claude或GPT-4o;如果你注重隐私和长期免费,那就本地跑模型。
二、怎么配置模型?
OpenClaw的模型配置有两种方式:Web界面配置和命令行配置。
方式一:Web界面(推荐新手)
打开OpenClaw控制台(http://127.0.0.1:18789)。
让你的龙虾帮你进行配置
方式二:命令行(老手专用)
bash
openclaw config set providers.aliyun.apiKey "你的API Key"openclaw config set models.default "qwen-max"
配置好后,运行 openclaw health 检查一下模型是否可用。
三、各平台API Key获取指南
阿里云百炼(推荐,免费额度高)
访问 阿里云百炼平台。
注册/登录阿里云账号,完成实名认证。
进入“模型广场”,点击“开通服务”。
在“API-KEY管理”中创建新的API Key,复制保存。
免费额度:新用户90天内,qwen-max、qwen-plus都有大量免费额度,正常使用绰绰有余。
DeepSeek
访问 DeepSeek官网。
注册账号,进入控制台。
点击“API Keys”,创建新Key。
复制保存。
本地模型(Ollama)
如果你想完全免费、离线、保护隐私,可以本地跑模型。
安装 Ollama。
下载模型,比如:
bash
ollama pull qwen2:7b在OpenClaw配置中,Provider选择“Ollama”,URL填
http://localhost:11434,模型名填qwen2:7b。
注意:本地模型需要较好的显卡(建议8GB以上显存),否则会慢。
四、不同场景怎么选模型?
五、常见问题
Q:我配置了API Key,但提示“invalid”怎么办?
A:检查Key是否复制完整,有无多余空格。另外确保你开通了对应模型的权限(比如阿里云百炼需要先开通服务)。
Q:免费额度用完了怎么办?
A:可以换另一个免费服务商(比如DeepSeek),或者切换成便宜的小模型(如qwen-turbo),也可以自己跑本地模型。
Q:本地模型好慢,是我电脑不行吗?
A:可能是。7B参数模型至少需要8GB显存,14B需要16GB。如果没有独立显卡,建议还是用API。
结语
模型就是OpenClaw的“大脑”。选对了,它就是你最得力的员工;选错了,你可能觉得它像个智障。
现在你已经知道怎么给它换大脑了。下一期,我们来解锁一个真正的技能——自动整理会议纪要,让OpenClaw帮你从“听”到“记”全包了。
夜雨聆风