免费使用DeepSeek、Qwen、GLM等100+大模型,手把手教你配置
一、为什么要用硅基流动?
先说结论:硅基流动是目前国内最良心的大模型API平台之一。
免费额度有多香?
| 注册送 | |
| 邀请奖励 | |
| 永久免费模型 | |
| 免费模型数量 |
支持的模型有哪些?
免费大语言模型(部分):
deepseek-ai/DeepSeek-R1-Distill-Qwen-7B- DeepSeek R1蒸馏版 deepseek-ai/DeepSeek-OCR- 视觉OCR专用 Qwen/Qwen3-8B- 阿里Qwen3系列 Qwen/Qwen2.5-7B-Instruct- Qwen2.5免费版 Qwen/Qwen2.5-Coder-7B-Instruct- 代码专用 THUDM/GLM-4.1V-9B-Thinking- GLM视觉推理版 THUDM/GLM-Z1-9B-0414- GLM推理版 THUDM/glm-4-9b-chat- GLM-4通用版 internlm/internlm2_5-7b-chat- 书生模型 mistralai/Mistral-7B-Instruct-v0.2- Mistral
付费模型(价格也很良心):
DeepSeek-V3、Kimi-K2.5、MiniMax-M2等100+模型
为什么选硅基流动?
- 真免费
- 不是试用,是长期免费额度 - 模型全
- 100+主流模型,一站式接入 - 速度快
- 推理加速,响应迅速 - 兼容好
- OpenAI兼容API,接入零成本 - 不用实名
- 手机号注册即可使用
二、什么是OpenClaw?
如果你还没用过OpenClaw,简单介绍一下:
OpenClaw = 开源AI助手 + 自动化工作流引擎
支持多种大模型(GPT-4、Claude、Gemini等) 支持多平台接入(企业微信、钉钉、飞书、Slack等) 支持自定义Skills(技能插件) 支持多Agent协作 数据完全私有化,代码开源可审计
简单说:OpenClaw就是你可以自己部署的"ChatGPT Plus"。
三、配置步骤:5分钟搞定
第一步:注册硅基流动账号
访问:https://cloud.siliconflow.cn 点击"注册",用手机号注册 - 填写邀请码:
fWX2lFzB(双方各得2000万Token) 注册成功后,2000万Token自动到账
第二步:获取API Key
登录后点击右上角头像 → "API密钥" 点击"新建API密钥" 复制生成的Key(以 sk-开头)
重要:这个Key只显示一次,务必保存好!
第三步:找到OpenClaw配置文件
根据你的系统,找到openclaw.json文件:
| macOS | ~/.openclaw/openclaw.json |
| Windows | %USERPROFILE%\.openclaw\openclaw.json |
| Linux | ~/.openclaw/openclaw.json |
第四步:编辑配置文件
用文本编辑器打开openclaw.json,找到models → providers部分,添加以下配置:
json
复制
注意替换:
将 sk-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx换成你的真实API Key
第五步:配置Agent使用新模型
在同一配置文件中,找到agents部分,添加模型到fallbacks:
json
复制
{
"agents":{
"main":{
"name":"main",
"fallbacks":[
"siliconflow/deepseek-ai/DeepSeek-R1-Distill-Qwen-7B",
"siliconflow/Qwen/Qwen2.5-7B-Instruct",
"siliconflow/THUDM/glm-4-9b-chat"
]
}
}
}
第六步:验证配置
打开终端/命令行 运行命令: bash
复制
openclaw models list检查输出中是否包含你配置的硅基流动模型
如果看到了siliconflow/DeepSeek-R1-7B等模型,说明配置成功!
第七步:切换模型使用
在OpenClaw的聊天界面中,输入以下命令切换模型:
/model siliconflow/deepseek-ai/DeepSeek-R1-Distill-Qwen-7B
或者:
/model siliconflow/Qwen/Qwen2.5-7B-Instruct
四、模型选择建议
不同场景推荐
| 日常对话 | ||
| 代码编程 | ||
| 逻辑推理 | ||
| 多模态 | ||
| 长文本 |
免费模型够用吗?
完全够用! 7B-9B的模型在日常使用中表现已经很好:
✅ 回答问题准确流畅 ✅ 代码辅助完全胜任 ✅ 文案写作质量过关 ✅ 翻译、总结等任务轻松应对
什么时候需要付费模型?
复杂数学推理 专业领域深度分析 超长文本处理(>32K) 多模态高级功能
五、进阶技巧
技巧1:多模型切换
在OpenClaw中可以随时切换模型对比效果:
/model siliconflow/Qwen/Qwen2.5-7B-Instruct
技巧2:查看Token消耗
硅基流动控制台可以查看详细的Token使用统计:
访问:https://cloud.siliconflow.cn/me/usage 实时监控剩余额度
技巧3:邀请好友薅羊毛
每邀请1个好友注册,双方各得2000万Token:
在控制台找到"邀请好友" 分享你的邀请链接 好友注册后自动到账
技巧4:配合Skills使用
OpenClaw支持各种Skills(技能插件),配合免费模型可以实现:
代码审查 文档翻译 数据分析 自动化工作流
六、常见问题
Q1:配置后提示"模型不可用"?
检查以下几点:
API Key是否正确(以 sk-开头)baseUrl是否包含 /v1结尾模型ID是否与官方一致(注意大小写) JSON格式是否正确(可用JSON校验工具检查)
Q2:免费模型有速率限制吗?
有的,免费模型有RPM(每分钟请求数)限制,具体查看: https://docs.siliconflow.cn/quickstart/rate-limits
日常使用完全够用,如需更高并发可考虑付费。
Q3:Token用完了怎么办?
邀请好友获得额外额度 使用永久免费的模型(如Qwen2.5-7B) 充值购买(价格也很便宜)
Q4:支持哪些客户端?
硅基流动配置好后,任何支持OpenAI API格式的客户端都能用:
OpenClaw ✅ Claude Code ✅ Cursor ✅ Cline ✅ ChatGPT-Next-Web ✅ 各种Chat客户端 ✅
七、写在最后
OpenClaw + 硅基流动的组合,是目前性价比最高的私有化AI方案:
💰 零成本启动 - 2000万免费Token足够用很久 🔒 数据安全 - 代码开源,数据不出本地 🚀 模型丰富 - 100+模型随心切换 ⚡ 响应快速 - 推理加速,体验流畅 🔧 高度可定制 - Skills插件无限扩展
如果你还没有自己的AI助手,现在就是最好的开始时机。
你配置过程中遇到什么问题?
欢迎在评论区交流,我会尽力解答。
快速入口
- 硅基流动注册
:https://cloud.siliconflow.cn/i/fWX2lFzB - OpenClaw官网
:https://openclaw.io - 硅基流动文档
:https://docs.siliconflow.cn
夜雨聆风