Ollama+Qwen3:8B 安装全攻略
前言
接上篇,OpenClaw 只是个外壳,真正的灵魂是本地大模型!今天我们来安装目前性价比之王——Qwen3:8B (通义千问)。很多人担心显存不够,其实 8B 模型非常亲民!
什么是 Ollama?
Ollama 是一个专为本地运行大模型设计的工具,它把复杂的 Docker、Python 环境全部封装好了,一键运行,支持 Windows/Mac/Linux。
🚀 安装与拉取
Step 1:安装 Ollama
访问官网 ollama.com 下载 Windows 版。
双击安装,它会自动在后台运行服务(默认端口 11434)。
验证:在终端输入 ollama --version,有版本号就是成功了!✅
Step 2:拉取 Qwen3:8B 模型
这是最关键的一步!在 PowerShell 输入:
powershell
ollama pull qwen3:8b
注意:
模型大小约 5-6GB,根据网速可能需要半小时。
如果下载慢,可以找找国内的镜像源(懂的都懂🤫)。
确保你的 C 盘或安装盘有足够空间!
Step 3:测试运行
下载完成后,试运行一下:
powershell
ollama run qwen3:8b "你好,请介绍一下你自己"
如果看到 AI 开始噼里啪啦打字,恭喜你!你的电脑现在已经拥有了本地智力!🎉
💻 硬件要求自查
内存:建议 16GB 起步(8B 模型吃内存)
显存:如果有独立显卡(NVIDIA),至少 6GB-8GB 显存,速度会飞快!🚀
纯 CPU 运行:也能跑,但速度像“树懒”,适合不着急的场景。🦥
使用体验
我在自己的 RTX 3060 (12G) 上测试,生成速度大约 20 tokens/s,非常流畅!完全没有云端的延迟感。
下一步
大脑装好了,怎么让 OpenClaw 指挥它呢?下篇揭秘配置文件魔法,打通任督二脉!
关联阅读:
系列二:弃暗投明!Windows安装OpenClaw保姆级教程
夜雨聆风