教程定位
本教程为Windows系统专属、零门槛小白向的Ollama可执行落地指南,全程步骤可直接复制操作,无需专业Linux/编程基础。带你完成从安装、本地大模型运行,到进阶工具集成的全流程操作,所有内容均基于Ollama官方规范与Windows系统特性适配。
核心说明
Ollama是一款一键式本地运行开源大模型的工具,无需复杂环境配置,支持通义千问、Llama、Claude Code、Mistral等上万种开源模型,可实现本地AI对话、代码编写、自动化任务、RAG知识库等功能,全程数据离线,无隐私泄露风险。
一、前置准备(Windows系统要求)
1. 系统版本要求
- 最低要求:Windows 10 20H2 及以上版本 / Windows 11 全版本
- 推荐配置:Windows 11 22H2及以上版本,兼容性最佳
2. 硬件配置要求(核心影响模型运行效果)
配置类型 最低要求 流畅运行推荐 高性能运行推荐
内存(RAM) 8GB 16GB及以上 32GB及以上
显卡显存 2GB核显/独显 6GB及以上NVIDIA独显 12GB及以上NVIDIA独显
硬盘空间 20GB空闲SSD 50GB及以上空闲SSD 100GB及以上空闲SSD
补充说明:AMD显卡也可运行,NVIDIA显卡支持CUDA加速,运行速度更快;大模型文件体积较大,SSD可大幅提升模型加载速度。
二、Windows系统Ollama完整安装步骤
方式一:可视化安装包安装(小白首选,零代码)
1. 打开Ollama官方网站
浏览器访问官方地址:https://ollama.com ,全程无需科学上网。
2. 下载Windows安装包
点击首页的「Download」按钮,网站会自动识别你的Windows系统,跳转至Windows专属安装包下载页面,点击下载 OllamaSetup.exe 安装文件。
3. 执行安装程序
1. 双击下载好的 OllamaSetup.exe 文件,弹出安装界面后,点击「Install」;
2. 等待安装程序自动完成,全程无需手动修改配置,安装程序会自动配置系统环境变量,无需手动操作;
3. 安装完成后,点击「Finish」关闭安装向导。
4. 验证安装是否成功
1. 按下键盘 Win+R ,输入 powershell 回车,打开Windows PowerShell终端(也可以用CMD终端);
2. 在终端中输入以下命令,回车执行:
powershell
ollama --version
3. 若终端返回类似 ollama version is 0.18.1 的版本信息,说明安装成功;若提示「不是内部或外部命令」,重启电脑后重新执行即可。
方式二:命令行一键安装(进阶用户可选)
1. 以管理员身份打开Windows PowerShell终端;
2. 复制以下官方一键安装命令,粘贴到终端中回车执行:
powershell
curl -fsSL https://ollama.com/install.sh | sh
3. 等待脚本自动完成下载、安装、环境变量配置,全程无需手动干预;
4. 执行 ollama --version 验证安装结果即可。
三、基础使用:快速运行本地大模型
3.1 核心基础命令(Windows终端直接复制执行)
1. 拉取(下载)开源模型
Ollama所有模型均在官方模型库(https://ollama.com/library)可查,下载命令格式如下:
powershell
ollama pull 模型名称
2. 一键运行模型(模型未下载时会自动先下载)
powershell
ollama run 模型名称
3. 查看本地已下载的所有模型
powershell
ollama list
4. 删除本地不需要的模型
powershell
ollama rm 模型名称
3.2 Windows用户首选模型推荐(按配置适配)
电脑配置 推荐模型 模型特点 运行命令
低配(8GB内存/2GB显存) qwen3:0.5b 阿里通义千问轻量版,中文支持好,占用资源极低,对话流畅 ollama run qwen3:0.5b
主流配置(16GB内存/6GB显存) qwen3:7b 通义千问7B参数版,中文能力顶尖,兼顾对话、代码、创作,性价比最高 ollama run qwen3:7b
高性能配置(32GB内存/12GB以上显存) llama3:70b Meta开源旗舰模型,逻辑、推理能力拉满,专业场景适配 ollama run llama3:70b
代码专属场景 codellama:7b-code 代码编写、调试专属模型,支持全主流编程语言 ollama run codellama:7b-code
智能体/自动化场景 openclaw 开源自动化智能体,可执行任务、自动办公、对接工具 ollama run openclaw
3.3 完整操作示例(以通义千问qwen3:7b为例)
1. 打开Windows PowerShell终端,输入以下命令回车:
powershell
ollama run qwen3:7b
2. 首次运行会自动下载模型文件,等待下载完成(进度条100%);
3. 终端出现 >>> 提示符,说明模型启动成功,直接输入你的问题,回车即可获得AI回复;
示例:输入 用Windows终端写一个Ollama的常用命令清单 ,回车即可生成内容;
4. 退出模型对话:输入 /exit 回车,即可关闭模型,回到终端正常界面。
四、进阶功能:Windows下高频场景落地
4.1 一键启动官方集成工具(Claude Code/OpenClaw)
基于官方内置的启动命令,无需额外配置,直接在终端执行即可启动对应工具:
1. 启动Claude Code代码助手
powershell
ollama launch claude
启动后可直接在终端使用Claude Code的代码编写、调试、项目生成功能,支持全主流编程语言,适配Windows开发环境。
2. 启动OpenClaw开源智能体助手
powershell
ollama launch openclaw
启动后可实现自动化任务执行、办公流程自动化、多工具对接,是Windows本地自动化办公的核心工具。
3. 查看所有可启动的内置应用
直接在终端输入 ollama 回车,即可看到所有支持启动的应用、已安装的模型,通过键盘上下键选择,回车即可启动。
4.2 对接可视化Web界面(Open WebUI,Windows推荐)
Open WebUI是Ollama最热门的可视化界面,功能对标ChatGPT,支持对话、RAG知识库、模型管理、多轮对话,Windows一键部署步骤:
1. 先确保你的Windows电脑已安装Docker Desktop(Windows版直接官网下载安装即可);
2. 以管理员身份打开PowerShell,执行以下一键部署命令:
powershell
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
3. 等待容器拉取完成后,打开浏览器,访问 http://localhost:3000 即可打开可视化界面;
4. 首次使用注册账号,即可自动对接本地Ollama的所有模型,实现可视化对话、RAG知识库搭建等功能。
4.3 对接RAG/开发生态
Ollama原生支持Windows下全主流开发与RAG框架,无需额外适配,直接对接即可:
1. RAG知识库框架:LangChain、LlamaIndex、AnythingLLM,均可直接调用本地Ollama模型,搭建本地私有知识库;
2. 自动化工具:对接n8n、Dify等低代码自动化平台,实现AI工作流搭建;
3. 开发语言:Python、Java、C#等全主流编程语言,均有Ollama官方SDK,可直接集成到你的项目中。
五、Windows系统常见问题与排错方案
问题1:终端输入ollama提示「不是内部或外部命令,也不是可运行的程序」
- 解决方案1:重启电脑,安装程序配置的环境变量需要重启后生效;
- 解决方案2:手动添加环境变量——右键「此电脑」→「属性」→「高级系统设置」→「环境变量」→「系统变量」→找到「Path」→编辑→新增 C:\Users\你的用户名\AppData\Local\Programs\Ollama →确定保存,重启终端即可。
问题2:模型下载速度慢/下载中断
- 解决方案1:更换国内镜像源,在PowerShell中执行以下命令,临时设置国内镜像:
powershell
# 临时生效(当前终端窗口)
$env:OLLAMA_HOST = "https://ollama.fan"
- 解决方案2:关闭电脑代理/VPN,直连网络下载,避免代理节点影响下载速度;
- 解决方案3:给终端设置代理,确保网络能正常访问Ollama官方服务器。
问题3:模型运行卡顿/闪退,提示显存不足
- 解决方案1:更换更小参数的模型,比如从7B模型换成3B/0.5B模型;
- 解决方案2:关闭电脑其他占用显存/内存的程序(比如浏览器、游戏、视频软件),释放资源;
- 解决方案3:在PowerShell中设置Ollama使用CPU运行(无独显用户适用),执行以下命令:
powershell
$env:OLLAMA_CPU_ONLY = "1"
问题4:Docker部署Open WebUI后,无法连接本地Ollama模型
- 解决方案:确保Ollama已在本地正常启动,同时在Docker命令中正确添加了 --add-host=host.docker.internal:host-gateway 参数,该参数是Windows下Docker访问本地Ollama的核心配置,重新执行正确的部署命令即可。
六、Windows Ollama 常用命令速查表
命令 功能说明
ollama --version 查看Ollama版本,验证安装是否成功
ollama pull 模型名 下载指定开源大模型
ollama run 模型名 运行指定模型,未下载会自动先下载
ollama list 查看本地已下载的所有模型列表
ollama rm 模型名 删除本地指定的模型文件
ollama show 模型名 查看模型的详细信息、参数配置
ollama launch 应用名 启动指定的内置应用(claude/openclaw等)
ollama 打开Ollama导航菜单,可视化选择模型/应用
/exit 在模型对话界面,退出当前模型运行
/help 在模型对话界面,查看所有对话内置命令
夜雨聆风