乐于分享
好东西不私藏

Ollama Windows 本地安装与使用全流程可执行教程

Ollama Windows 本地安装与使用全流程可执行教程



教程定位

本教程为Windows系统专属、零门槛小白向的Ollama可执行落地指南,全程步骤可直接复制操作,无需专业Linux/编程基础。带你完成从安装、本地大模型运行,到进阶工具集成的全流程操作,所有内容均基于Ollama官方规范与Windows系统特性适配。

核心说明

Ollama是一款一键式本地运行开源大模型的工具,无需复杂环境配置,支持通义千问、Llama、Claude Code、Mistral等上万种开源模型,可实现本地AI对话、代码编写、自动化任务、RAG知识库等功能,全程数据离线,无隐私泄露风险。

 

一、前置准备(Windows系统要求)

1. 系统版本要求

- 最低要求:Windows 10 20H2 及以上版本 / Windows 11 全版本
- 推荐配置:Windows 11 22H2及以上版本,兼容性最佳

2. 硬件配置要求(核心影响模型运行效果)

配置类型 最低要求 流畅运行推荐 高性能运行推荐
内存(RAM) 8GB 16GB及以上 32GB及以上
显卡显存 2GB核显/独显 6GB及以上NVIDIA独显 12GB及以上NVIDIA独显
硬盘空间 20GB空闲SSD 50GB及以上空闲SSD 100GB及以上空闲SSD

补充说明:AMD显卡也可运行,NVIDIA显卡支持CUDA加速,运行速度更快;大模型文件体积较大,SSD可大幅提升模型加载速度。

 

二、Windows系统Ollama完整安装步骤

方式一:可视化安装包安装(小白首选,零代码)

1. 打开Ollama官方网站
浏览器访问官方地址:https://ollama.com ,全程无需科学上网。
2. 下载Windows安装包
点击首页的「Download」按钮,网站会自动识别你的Windows系统,跳转至Windows专属安装包下载页面,点击下载  OllamaSetup.exe  安装文件。
3. 执行安装程序
1. 双击下载好的  OllamaSetup.exe  文件,弹出安装界面后,点击「Install」;
2. 等待安装程序自动完成,全程无需手动修改配置,安装程序会自动配置系统环境变量,无需手动操作;
3. 安装完成后,点击「Finish」关闭安装向导。
4. 验证安装是否成功
1. 按下键盘  Win+R ,输入  powershell  回车,打开Windows PowerShell终端(也可以用CMD终端);
2. 在终端中输入以下命令,回车执行:
powershell
 

ollama --version
 
3. 若终端返回类似  ollama version is 0.18.1  的版本信息,说明安装成功;若提示「不是内部或外部命令」,重启电脑后重新执行即可。

方式二:命令行一键安装(进阶用户可选)

1. 以管理员身份打开Windows PowerShell终端;
2. 复制以下官方一键安装命令,粘贴到终端中回车执行:
powershell
 

curl -fsSL https://ollama.com/install.sh | sh
 
3. 等待脚本自动完成下载、安装、环境变量配置,全程无需手动干预;
4. 执行  ollama --version  验证安装结果即可。

 

三、基础使用:快速运行本地大模型

3.1 核心基础命令(Windows终端直接复制执行)

1. 拉取(下载)开源模型

Ollama所有模型均在官方模型库(https://ollama.com/library)可查,下载命令格式如下:

powershell
 

ollama pull 模型名称
 

2. 一键运行模型(模型未下载时会自动先下载)

powershell
 

ollama run 模型名称
 

3. 查看本地已下载的所有模型

powershell
 

ollama list
 

4. 删除本地不需要的模型

powershell
 

ollama rm 模型名称
 

3.2 Windows用户首选模型推荐(按配置适配)

电脑配置 推荐模型 模型特点 运行命令
低配(8GB内存/2GB显存) qwen3:0.5b 阿里通义千问轻量版,中文支持好,占用资源极低,对话流畅  ollama run qwen3:0.5b 
主流配置(16GB内存/6GB显存) qwen3:7b 通义千问7B参数版,中文能力顶尖,兼顾对话、代码、创作,性价比最高  ollama run qwen3:7b 
高性能配置(32GB内存/12GB以上显存) llama3:70b Meta开源旗舰模型,逻辑、推理能力拉满,专业场景适配  ollama run llama3:70b 
代码专属场景 codellama:7b-code 代码编写、调试专属模型,支持全主流编程语言  ollama run codellama:7b-code 
智能体/自动化场景 openclaw 开源自动化智能体,可执行任务、自动办公、对接工具  ollama run openclaw 

3.3 完整操作示例(以通义千问qwen3:7b为例)

1. 打开Windows PowerShell终端,输入以下命令回车:
powershell
 

ollama run qwen3:7b
 
2. 首次运行会自动下载模型文件,等待下载完成(进度条100%);
3. 终端出现  >>>   提示符,说明模型启动成功,直接输入你的问题,回车即可获得AI回复;
示例:输入  用Windows终端写一个Ollama的常用命令清单 ,回车即可生成内容;
4. 退出模型对话:输入  /exit  回车,即可关闭模型,回到终端正常界面。

 

四、进阶功能:Windows下高频场景落地

4.1 一键启动官方集成工具(Claude Code/OpenClaw)

基于官方内置的启动命令,无需额外配置,直接在终端执行即可启动对应工具:

1. 启动Claude Code代码助手
powershell
 

ollama launch claude
 

启动后可直接在终端使用Claude Code的代码编写、调试、项目生成功能,支持全主流编程语言,适配Windows开发环境。
2. 启动OpenClaw开源智能体助手
powershell
 

ollama launch openclaw
 

启动后可实现自动化任务执行、办公流程自动化、多工具对接,是Windows本地自动化办公的核心工具。
3. 查看所有可启动的内置应用
直接在终端输入  ollama  回车,即可看到所有支持启动的应用、已安装的模型,通过键盘上下键选择,回车即可启动。

4.2 对接可视化Web界面(Open WebUI,Windows推荐)

Open WebUI是Ollama最热门的可视化界面,功能对标ChatGPT,支持对话、RAG知识库、模型管理、多轮对话,Windows一键部署步骤:

1. 先确保你的Windows电脑已安装Docker Desktop(Windows版直接官网下载安装即可);
2. 以管理员身份打开PowerShell,执行以下一键部署命令:
powershell
 

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
 
3. 等待容器拉取完成后,打开浏览器,访问  http://localhost:3000  即可打开可视化界面;
4. 首次使用注册账号,即可自动对接本地Ollama的所有模型,实现可视化对话、RAG知识库搭建等功能。

4.3 对接RAG/开发生态

Ollama原生支持Windows下全主流开发与RAG框架,无需额外适配,直接对接即可:

1. RAG知识库框架:LangChain、LlamaIndex、AnythingLLM,均可直接调用本地Ollama模型,搭建本地私有知识库;
2. 自动化工具:对接n8n、Dify等低代码自动化平台,实现AI工作流搭建;
3. 开发语言:Python、Java、C#等全主流编程语言,均有Ollama官方SDK,可直接集成到你的项目中。

 

五、Windows系统常见问题与排错方案

问题1:终端输入ollama提示「不是内部或外部命令,也不是可运行的程序」

- 解决方案1:重启电脑,安装程序配置的环境变量需要重启后生效;
- 解决方案2:手动添加环境变量——右键「此电脑」→「属性」→「高级系统设置」→「环境变量」→「系统变量」→找到「Path」→编辑→新增  C:\Users\你的用户名\AppData\Local\Programs\Ollama  →确定保存,重启终端即可。

问题2:模型下载速度慢/下载中断

- 解决方案1:更换国内镜像源,在PowerShell中执行以下命令,临时设置国内镜像:
powershell
 

# 临时生效(当前终端窗口)
$env:OLLAMA_HOST = "https://ollama.fan"
 
- 解决方案2:关闭电脑代理/VPN,直连网络下载,避免代理节点影响下载速度;
- 解决方案3:给终端设置代理,确保网络能正常访问Ollama官方服务器。

问题3:模型运行卡顿/闪退,提示显存不足

- 解决方案1:更换更小参数的模型,比如从7B模型换成3B/0.5B模型;
- 解决方案2:关闭电脑其他占用显存/内存的程序(比如浏览器、游戏、视频软件),释放资源;
- 解决方案3:在PowerShell中设置Ollama使用CPU运行(无独显用户适用),执行以下命令:
powershell
 

$env:OLLAMA_CPU_ONLY = "1"
 

问题4:Docker部署Open WebUI后,无法连接本地Ollama模型

- 解决方案:确保Ollama已在本地正常启动,同时在Docker命令中正确添加了  --add-host=host.docker.internal:host-gateway  参数,该参数是Windows下Docker访问本地Ollama的核心配置,重新执行正确的部署命令即可。

 

六、Windows Ollama 常用命令速查表

命令 功能说明
 ollama --version  查看Ollama版本,验证安装是否成功
 ollama pull 模型名  下载指定开源大模型
 ollama run 模型名  运行指定模型,未下载会自动先下载
 ollama list  查看本地已下载的所有模型列表
 ollama rm 模型名  删除本地指定的模型文件
 ollama show 模型名  查看模型的详细信息、参数配置
 ollama launch 应用名  启动指定的内置应用(claude/openclaw等)
 ollama  打开Ollama导航菜单,可视化选择模型/应用
 /exit  在模型对话界面,退出当前模型运行
 /help  在模型对话界面,查看所有对话内置命令