乐于分享
好东西不私藏

Ollama 本地大模型部署完全指南:安装配置、模型管理与常见问题解决

Ollama 本地大模型部署完全指南:安装配置、模型管理与常见问题解决

Ollama 本地大模型部署完全指南:安装配置、模型管理与常见问题解决

Ollama 是当下最流行的本地大语言模型运行工具,它让任何人都能在自己的电脑上运行开源大模型,无需昂贵的云服务费用。本文从零开始,涵盖 Ollama 在各平台上的安装配置、模型下载与管理、自定义模型创建、API 服务调用,以及十余个常见问题的解决方案。

一、Ollama 简介与核心概念

什么是 Ollama

Ollama 是一个开源的本地大模型运行框架,专门用于简化大语言模型(LLM)在本地环境的部署和运行。它将复杂的模型下载、依赖管理、推理服务等操作封装成简单的命令行接口,用户只需一条命令即可启动模型并开始对话。Ollama 的设计理念是"开箱即用",它默认支持数十种主流开源模型,包括 Llama 3.3、Qwen 2.5、Mistral、DeepSeek 等系列。用户无需关心 CUDA 配置、模型格式转换、量化参数等底层细节,Ollama 会自动处理这些复杂性。

Ollama 的核心优势

相比直接使用 llama.cpp 或 vLLM,Ollama 有几个显著优势。首先是安装简便,支持 macOS、Linux、Windows 三平台,一键安装无需编译配置。其次是模型管理直观,通过 ollama pull 即可下载模型,ollama list 查看已下载模型,ollama rm 删除模型。第三是 API 友好,Ollama 内置 REST API 服务,兼容 OpenAI API 格式,现有应用无需修改代码即可切换到本地模型。第四是跨硬件支持,自动检测 NVIDIA CUDA 或 Apple Metal,提供最优推理性能。第五是配置文件灵活,通过 Modelfile 可以自定义模型参数、提示词模板和系统角色。

支持的模型系列

Ollama 生态系统非常丰富,支持的模型包括:Llama 系列(Llama 3.3 70B、Llama 3.2 Vision、Llama 3.1 8B 等);Qwen 系列(Qwen 2.5 72B、Qwen 2.5 Coder、Qwen 2.5 Math 等);Mistral 和 Mixtral 系列;DeepSeek 系列(DeepSeek R1、DeepSeek Coder 等);Phi、Gemma、Yi 等其他开源模型。

关键术语解释

理解 Ollama 需要掌握几个核心术语。ModelFile 是 Ollama 的配置文件,类似于 Dockerfile,定义了模型的基础参数、系统提示词、模板等。Pull 是下载模型的过程,Ollama 会从远程仓库拉取模型文件到本地。Quantization 量化是将大模型压缩为更小体积的过程,常见的量化级别包括 Q4_0、Q5_1、Q8_0 等,数字越小模型越小但精度损失越大。Context Window 上下文窗口决定了模型能一次性处理的最大 Token 数量。

二、Ollama 安装详解

macOS 系统安装

macOS 是安装 Ollama 最简单的平台,直接下载官方提供的安装包即可。从 Ollama 官网(ollama.com)下载 macOS 版本的安装包(.dmg 文件),下载完成后双击打开,将 Ollama 应用拖入应用程序文件夹即可完成安装。安装完成后,Ollama 会在菜单栏右上角显示一个小图标,显示当前运行状态。点击图标可以看到当前加载的模型、可用内存和 CPU 使用情况。```bash

或者通过 Homebrew 安装(推荐)

brew install ollama

启动 Ollama 服务

brew services start ollama

验证安装

ollama --version```如果使用 Homebrew 安装,Ollama 会作为后台服务运行,开机自动启动。可以通过菜单栏图标或命令行管理服务状态。

Linux 系统安装

Linux 系统有多种安装方式,推荐使用官方安装脚本:```bash

方式一:官方安装脚本(最简单)

curl -fsSL https://ollama.com/install.sh | sh

方式二:手动下载二进制文件

下载最新版本

curl -LO https://github.com/ollama/ollama/releases/latest/download/ollama-linux-amd64.tar.gzsudo tar -C /usr -xzf ollama-linux-amd64.tar.gz

添加为系统服务(可选)

sudo useradd -r -s /bin/false -m -d /usr/share/ollama ollama 2>/dev/null || truesudo systemctl enable ollama

启动 Ollama

sudo systemctl start ollama

验证安装

ollama --version```对于中国大陆用户,官方安装脚本可能下载缓慢,可以使用代理或镜像:```bash

设置代理后安装

export https_proxy=http://127.0.0.1:7890curl -fsSL https://ollama.com/install.sh | sh

或直接下载二进制(替换版本号)

curl -LO https://github.com/ollama/ollama/releases/download/v0.5.4/ollama-linux-amd64.tar.gzsudo tar -C /usr -xzf ollama-linux-amd64.tar.gz```安装完成后,Ollama 会监听 11434 端口。可以通过以下命令检查服务状态:```bash

检查服务状态

sudo systemctl status ollama

查看日志

sudo journalctl -u ollama -f

测试 API

curl http://localhost:11434/api/generate -d '{  "model": "llama3.2:3b",  "prompt": "Hello, world!"}'```

Windows 系统安装

Windows 用户可以通过两种方式使用 Ollama。第一种是下载 Windows 原生安装包(Preview 版本),从 GitHub Releases 页面下载 ollama-windows-amd64.exe 安装程序,运行后按提示完成安装。第二种是使用 WSL 2(Windows Subsystem for Linux),在 WSL 内部安装 Linux 版本的 Ollama。这种方式可以获得更好的性能,尤其是使用 GPU 加速时:```powershell

先安装 WSL 2(如果还没有)

wsl --install -d Ubuntu

在 WSL 中安装 Ollama

curl -fsSL https://ollama.com/install.sh | sh

在 WSL 中运行模型

wslollama run llama3.2:3b```Windows 原生版本会安装一个系统服务,并在通知区域显示图标。通过浏览器访问 http://localhost:11434 可以看到 Ollama 的 API 文档页面。

Docker 方式安装(跨平台)

使用 Docker 运行 Ollama 是最干净的方式,不污染宿主机环境,而且便于管理:```bash

拉取并运行 Ollama 镜像

docker run -d   --name ollama   -v ollama_data:/root/.ollama   -p 11434:11434   --runtime nvidia   --gpus all   ollama/ollama:latest

进入容器使用命令行

docker exec -it ollama ollama run llama3.2:3b

或者直接在宿主机访问 API

curl http://localhost:11434/api/generate -d '{  "model": "llama3.2:3b",  "prompt": "What is 2+2?"}'```如果不需要 GPU 支持(仅 CPU 推理),可以去掉 --gpus 参数:```bashdocker run -d   --name ollama   -v ollama_data:/root/.ollama   -p 11434:11434   ollama/ollama:latest```Docker 方式的数据持久化通过 -v ollama_data:/root/.ollama 实现,所有下载的模型都会保存在这个数据卷中,重启容器不会丢失模型。

三、GPU 加速配置

NVIDIA GPU 配置

Ollama 对 NVIDIA GPU 的支持需要安装 CUDA 驱动和 nvidia-container-toolkit:```bash

检查 NVIDIA 驱动

nvidia-smi

安装 nvidia-container-toolkit(Ubuntu/Debian)

distribution=$(. /etc/os-release;echo $ID$VERSION_ID)curl -s -L https://nvidia.github.io/nvidia-docker/gpgkey | sudo apt-key add -curl -s -L https://nvidia.github.io/nvidia-docker/$distribution/nvidia-docker.list |     sudo tee /etc/apt/sources.list.d/nvidia-docker.listsudo apt-get updatesudo apt-get install -y nvidia-container-toolkitsudo systemctl restart docker

验证 CUDA 访问

docker run --rm --gpus all nvidia/cuda:12.1.0-base-ubuntu22.04 nvidia-smi```配置完成后,Ollama 会自动检测并使用 GPU。可以通过环境变量控制 GPU 使用:```bash

使用指定的 GPU(从 0 开始编号)

export CUDA_VISIBLE_DEVICES=0

或在 Docker 运行时指定

docker run --gpus '"device=0"' ollama/ollama:latest

查看 Ollama 使用的 GPU

curl http://localhost:11434/api/generate -d '{  "model": "llama3.2:3b",  "prompt": "test"}' 2>&1 | head -20```

Apple Silicon (M系列芯片) 配置

Apple Silicon Mac 用户无需额外配置,Ollama 会自动使用 Metal 加速。确保系统已更新到最新版本以获得最佳性能:```bash

检查 Ollama 是否使用 GPU 加速

在对话中输入 /stats 可以查看推理统计

显示 "GPU: 100%" 表示在使用 Metal 加速

如果遇到问题,可以尝试设置环境变量

OLLAMA_DEBUG=1 ollama run llama3.2:3b

查看详细日志

tail -f ~/.ollama/logs/ollama.log```

多 GPU 配置

拥有多块 GPU 的用户可以充分利用并行推理能力:```bash

使用所有可用 GPU

docker run -d   --name ollama   -v ollama_data:/root/.ollama   -p 11434:11434   --gpus all   ollama/ollama:latest

或指定特定的 GPU

docker run -d   --name ollama   -v ollama_data:/root/.ollama   -p 11434:11434   --gpus '"device=0,1"'   ollama/ollama:latest

通过环境变量控制

export CUDA_VISIBLE_DEVICES=0,1```

四、模型管理

下载模型

Ollama 的模型存储在 ~/.ollama/models 目录,下载模型非常简单:```bash

下载最新版的 Llama 3.2 3B 模型

ollama pull llama3.2:3b

下载指定版本(冒号后为标签)

ollama pull llama3.2:3b-instruct-q4_K_M

下载非常大的模型(需要更多时间和磁盘空间)

ollama pull llama3.3:70b

下载中文优化模型

ollama pull qwen2.5:14bollama pull qwen2.5-coder:7b

下载 DeepSeek 系列

ollama pull deepseek-r1:7bollama pull deepseek-coder:6.7b

下载数学专用模型

ollama pull qwen2.5-math:7b

列出可用的所有模型标签

ollama show llama3.2:3b```模型名称遵循 `model:tag` 的格式,常见的 tag 包括:latest(最新版本)、具体版本号(如 3.2)、量化级别(如 q4_K_M)、特殊用途标签(如 coder、math、instruct)。

量化级别说明

量化是将模型权重从高精度(通常是 FP32 或 FP16)转换为低精度(INT4、INT8)以减小体积和加速推理的过程:

  • **FP16**:原始精度,体积最大,质量最高,需要更多显存
  • **Q8_0**:8位量化,质量接近 FP16,体积减小约50%
  • **Q6_K**:6位量化,质量较好,体积约 FP16 的40%
  • **Q5_1**:5位量化,质量尚可,体积约 FP16 的33%
  • **Q5_K_M**:中等大小的高质量5位量化
  • **Q4_1**:4位量化,体积最小,质量明显下降
  • **Q4_K_M**:最流行的量化级别,性价比最高
  • **Q3_K_M**:3位量化,体积极小,质量损失明显

一般来说,Q4_K_M 是最佳平衡点,推荐优先使用这个级别。

查看和管理本地模型

```bash

列出所有已下载的模型

ollama list

示例输出:

NAME                    ID           SIZE      MODIFIED

llama3.2:3b             a86e30d2e956  2.0GB     2 days ago

qwen2.5:14b             84565468d3cd  8.9GB     3 days ago

deepseek-r1:7b          8a4d6d2e1c3d  4.1GB     1 week ago

查看模型详细信息

ollama show llama3.2:3b

查看模型占用的磁盘空间

du -sh ~/.ollama/models/

删除不需要的模型

ollama rm llama3.2:3b

删除所有未使用的模型(释放空间)

ollama prune```

复制和导入模型

```bash

复制模型(创建别名)

ollama cp llama3.2:3b my-local-llama

导出模型为单个文件(用于备份或迁移)

ollama push my-registry.com/my-llama:custom

从 GGUF 文件导入模型

首先创建 Modelfile

echo 'FROM ./models/my-model.gguf' > Modelfileollama create my-model -f Modelfile```

五、运行与对话

交互式对话

最常用的方式是进入交互式对话模式:```bash

启动交互式对话

ollama run llama3.2:3b

直接提问(单次查询)

ollama run llama3.2:3b "Explain what is Docker in one sentence."

带系统提示词运行

ollama run llama3.2:3b --system "You are a helpful assistant that speaks Chinese."

设置温度参数(0-1,越低越确定,越高越有创意)

ollama run llama3.2:3b --temperature 0.7

设置上下文大小(最大处理 Token 数)

ollama run llama3.2:3b --numctx 8192```交互式模式支持多个命令:以 / 开始输入命令,/? 或 /help 显示帮助,/clear 清除对话历史,/exit 或 /bye 退出对话,/model 切换模型,/set 设置参数。

交互式命令

在对话中可以使用以下命令:```/?/models    - 显示已加载的模型/model     - 切换到其他模型/set       - 设置参数(verbose, temp, numctx 等)/clear     - 清除对话历史/bye       - 退出/stats     - 显示推理统计信息(GPU 使用、速度等)/shortcuts - 显示快捷方式```

参数调优

Ollama 支持多个运行时参数调整:```bash

temperature:控制随机性,0 最确定,1 最随机

ollama run llama3.2:3b --temperature 0.3

num_ctx:上下文窗口大小

ollama run llama3.2:3b --numctx 4096

top_k:限制采样的词汇表大小

ollama run llama3.2:3b --top_k 20

top_p:核采样参数

ollama run llama3.2:3b --top_p 0.9

repeat_penalty:重复惩罚

ollama run llama3.2:3b --repeat_penalty 1.1

num_gpu:使用的 GPU 数量

ollama run llama3.2:3b --num_gpu 1```

六、REST API 与应用集成

生成接口(/api/generate)

Ollama 提供完整的 REST API,兼容 OpenAI API 格式:```bash

基本生成

curl http://localhost:11434/api/generate -d '{  "model": "llama3.2:3b",  "prompt": "What is the capital of France?",  "stream": false}'

流式输出

curl http://localhost:11434/api/generate -d '{  "model": "llama3.2:3b",  "prompt": "Write a Python function to calculate fibonacci",  "stream": true}'

带系统提示词

curl http://localhost:11434/api/generate -d '{  "model": "qwen2.5:7b",  "system": "You are an expert Python programmer.",  "prompt": "How do I read a file in Python?",  "options": {    "temperature": 0.7,    "num_predict": 512  }}'```

聊天接口(/api/chat)

对话接口更适合多轮对话场景:```bashcurl http://localhost:11434/api/chat -d '{  "model": "llama3.2:3b",  "messages": [    {"role": "system", "content": "You are a helpful assistant."},    {"role": "user", "content": "What is 2+2?"},    {"role": "assistant", "content": "2+2 equals 4."},    {"role": "user", "content": "What about 3+3?"}  ],  "stream": false}'```

embeddings 接口

用于生成文本向量嵌入:```bashcurl http://localhost:11434/api/embeddings -d '{  "model": "llama3.2:3b",  "prompt": "The quick brown fox jumps over the lazy dog"}'```

Python SDK 使用

```pythonfrom ollama import chatfrom ollama import generate

简单生成

response = generate(model='llama3.2:3b', prompt='What is AI?')print(response['response'])

聊天

response = chat(model='llama3.2:3b', messages=[    {'role': 'user', 'content': 'Hello!'}])print(response['message']['content'])

流式生成

for chunk in generate(model='llama3.2:3b', prompt='Write a story', stream=True):    print(chunk['response'], end='', flush=True)```

Node.js SDK 使用

```javascriptimport { chat } from '@langchain/community/chat_models/ollama';const model = new OllamaLLM({  baseUrl: 'http://localhost:11434',  model: 'llama3.2:3b',});const response = await model.invoke('What is machine learning?');console.log(response);```

替换 OpenAI API 使用

Ollama 的 API 设计兼容 OpenAI 格式,只需修改端点即可:```python

原来的 OpenAI 调用

client = OpenAI(api_key='...', base_url='https://api.openai.com/v1')

替换为本地 Ollama

from openai import OpenAIclient = OpenAI(    base_url="http://localhost:11434/v1",    api_key="ollama"  # Ollama 不需要真实 API key)response = client.chat.completions.create(    model="llama3.2:3b",    messages=[        {"role": "user", "content": "Hello!"}    ])print(response.choices[0].message.content)```

七、自定义模型(Modelfile)

Modelfile 基础

Modelfile 是 Ollama 的配置文件,允许自定义模型的系统提示词、参数和行为:```bash

创建 Modelfile

cat > Modelfile << 'EOF'FROM llama3.2:3b

设置系统提示词

SYSTEM """You are a professional Python developer assistant.Always write clean, well-documented Python code.Follow PEP 8 style guidelines."""

设置默认参数

PARAMETER temperature 0.7PARAMETER top_p 0.9PARAMETER num_ctx 4096

设置模板

TEMPLATE """<|im_start|>system{{ .System }}<|im_end|><|im_start|>user{{ .Prompt }}<|im_end|><|im_start|>assistant"""EOF

创建自定义模型

ollama create python-tutor -f Modelfile

运行

ollama run python-tutor "How do I read a CSV file?"```

常用 Modelfile 参数

```bash

FROM:指定基础模型

FROM qwen2.5:7b

SYSTEM:设置系统提示词

SYSTEM """You are [角色定义][行为规范]"""

PARAMETER:设置模型参数

PARAMETER temperature 0.8PARAMETER top_k 40PARAMETER top_p 0.95PARAMETER num_ctx 8192PARAMETER repeat_penalty 1.2PARAMETER num_gpu 1

TEMPLATE:自定义提示词模板

TEMPLATE """<|im_start|>system{{ .System }}<|im_end|><|im_start|>user{{ .Prompt }}<|im_end|><|im_start|>assistant"""

ADAPTER:加载 LoRA 适配器

ADAPTER ./my-lora-adapter

LICENSE:设置模型许可

LICENSE "mit"```

中文优化模型配置

针对中文对话场景优化:```bashcat > Modelfile << 'EOF'FROM qwen2.5:7bSYSTEM """你是一个专业、友好的中文AI助手。请用简洁清晰的中文回答问题。如果不确定,请明确说明。"""PARAMETER temperature 0.7PARAMETER num_ctx 4096PARAMETER repeat_penalty 1.1TEMPLATE """<|im_start|>system{{ .System }}<|im_end|><|im_start|>user{{ .Prompt }}<|im_end|><|im_start|>assistant"""EOFollama create chinese-assistant -f Modelfile```

专业领域助手配置

创建特定领域的专家助手:```bashcat > Modelfile << 'EOF'FROM deepseek-r1:7bSYSTEM """你是一位经验丰富的Linux系统管理员。专长:Shell脚本、系统优化、网络配置、安全加固。回答要专业、实用,给出具体的命令和配置示例。"""PARAMETER temperature 0.3PARAMETER num_ctx 8192PARAMETER stop "<|end▁of▁sentence|>"TEMPLATE """<|begin▁of▁sentence|>system{{ .System }}<|end▁of▁sentence|><|begin▁of▁sentence|>user{{ .Prompt }}<|end▁of▁sentence|><|begin▁of▁sentence|>assistant"""EOFollama create linux-admin -f Modelfile```

八、高级配置

环境变量配置

Ollama 支持多个环境变量来自定义行为:```bash

模型存储路径(默认 ~/.ollama/models)

export OLLAMA_MODELS=/mnt/data/ollama/models

上下文窗口大小

export OLLAMA_NUM_ctx=8192

最大并发请求数

export OLLAMA_MAX_LOADED_MODELS=2

调试模式

export OLLAMA_DEBUG=1

禁用 GPU(强制 CPU)

export OLLAMA_DEVICE=cpu

HTTP 代理

export HTTP_PROXY=http://proxy:8080export HTTPS_PROXY=http://proxy:8080

持久化配置(写入配置后需要重启服务)

编辑 /etc/systemd/system/ollama.service.d/override.conf

[Service]Environment="OLLAMA_MODELS=/mnt/data/models"Environment="OLLAMA_NUM_ctx=16384"```

配置文件

Ollama 的配置文件位于 ~/.ollama/config.json:```json{  "addr": "",  "models": "/home/user/.ollama/models",  "scratch": "/tmp/ollama",  "disableGPU": false,  "nohup": false,  "verbose": false,  "json": false,  "options": {    "num_ctx": 4096,    "temperature": 0.7  }}```

多实例部署

需要运行多个 Ollama 实例时,通过不同端口区分:```bash

实例1:端口 11434

OLLAMA_HOST=127.0.0.1:11434 ollama serve

实例2:端口 11435(需要不同的模型目录)

OLLAMA_MODELS=/data/models-2 OLLAMA_HOST=127.0.0.1:11435 ollama serve

访问不同实例

curl http://localhost:11434/api/generatecurl http://localhost:11435/api/generate```

网络访问配置

默认情况下 Ollama 只监听本地回环地址(127.0.0.1)。如果需要从其他机器访问,需要修改绑定地址:```bash

监听所有网络接口(谨慎使用,存在安全风险)

OLLAMA_HOST=0.0.0.0:11434 ollama serve

或修改 systemd 服务

sudo systemctl edit ollama

添加:

[Service]Environment="OLLAMA_HOST=0.0.0.0"

重启服务

sudo systemctl daemon-reloadsudo systemctl restart ollama```**注意**:公网暴露 Ollama API 存在安全风险,建议配合防火墙或 reverse proxy 使用。

九、常见问题与解决方案

模型下载失败或速度极慢

国内用户访问 Hugging Face 和 Ollama 官方仓库速度可能很慢:```bash

方案一:设置代理

export https_proxy=http://127.0.0.1:7890ollama pull llama3.2:3b

方案二:使用镜像站(如果有)

通过设置 hosts 绕过 DNS 污染

echo "199.232.69.194 huggingface.co" >> /etc/hosts

方案三:手动下载模型文件

从 Mirror 站下载 GGUF 文件,然后导入

例如:https://hf-mirror.com/models/TheBloke/Llama-3.2-3B-Instruct-GGUF

方案四:使用国内镜像模型

某些模型有国内镜像,可以查看对应的中文社区

方案五:使用较小的量化模型

不下载 8B 模型,下载 3B 量化版本

ollama pull llama3.2:1bollama pull llama3.2:3b-q4_K_M```

CUDA 不可用,GPU 未被识别

这是 Linux 用户最常见的问题之一:```bash

检查 NVIDIA 驱动

nvidia-smi

如果显示 "NVIDIA-SMI has failed because it couldn't communicate with the NVIDIA driver",说明驱动未正确安装

检查 CUDA 版本

nvcc --version

确认 nvidia-container-toolkit 安装正确

sudo apt-get install nvidia-container-toolkitsudo systemctl restart docker

验证 Docker GPU 支持

docker run --rm --gpus all nvidia/cuda:12.1.0-base-ubuntu22.04 nvidia-smi

检查 Ollama 日志

sudo journalctl -u ollama -f

查找 "CUDA" 相关错误信息

如果 Ollama 仍无法识别 GPU,尝试:

1. 重新安装 Ollama

curl -fsSL https://ollama.com/install.sh | sh

2. 或在 Docker 中使用 nvidia runtime

docker run --rm --gpus all ollama/ollama:latest nvidia-smi```

显存不足(CUDA out of memory)

模型太大而显存不够:```bash

方案一:使用更小的量化模型

ollama pull llama3.2:3b-q4_K_M  # 比 fp16 版本小一半

方案二:减小上下文窗口(降低 num_ctx)

ollama run llama3.2:3b --numctx 2048

方案三:只使用 CPU(牺牲速度)

CUDA_VISIBLE_DEVICES="" ollama run llama3.2:3b

方案四:使用更小的模型

ollama pull llama3.2:1bollama pull phi3:3.8b

检查显存使用

nvidia-smi

查看 "Memory Usage" 列

设置 Ollama 显存量限制

创建 /etc/systemd/system/ollama.service.d/override.conf

[Service]Environment="OLLAMA_GPU_OVERHEAD=0"```

模型加载失败

```bash

常见错误:"model requires more CUDA memory"

解决:同上,使用更小模型或降低上下文

检查模型文件是否损坏

ollama pull llama3.2:3b --force  # 强制重新下载

清理并重建模型缓存

ollama pruneollama rm ollama pull 

查看详细错误信息

OLLAMA_DEBUG=1 ollama run llama3.2:3b```

响应速度很慢

```bash

1. 确认是否使用了 GPU 加速

在交互模式输入 /stats 查看

如果 GPU 显示 0%,说明在用 CPU

2. 减小请求的上下文长度

curl http://localhost:11434/api/generate -d '{  "model": "llama3.2:3b",  "prompt": "...",  "options": {"num_ctx": 2048}}'

3. 使用流式输出

流式响应感知更快,实际上总时间相同但可以逐步看到结果

4. 检查 CPU 瓶颈

top -Hp $(pgrep -f ollama)

如果 CPU 100%,说明 CPU 成了瓶颈

5. 使用更小的模型

ollama pull llama3.2:1b```

Ollama 服务无法启动

```bash

检查服务状态

sudo systemctl status ollama

查看错误日志

sudo journalctl -xe -u ollama

常见原因及解决:

1. 端口被占用

sudo netstat -tlnp | grep 11434

如果有其他进程占用,杀掉或修改 Ollama 端口

2. 权限问题

sudo chown -R $USER:$USER ~/.ollama

3. 配置文件损坏

mv ~/.ollama/config.json ~/.ollama/config.json.bak

然后重新启动 Ollama

4. 二进制文件损坏

curl -fsSL https://ollama.com/install.sh | sh

或手动重新安装

手动启动(前台模式查看输出)

ollama serve```

API 返回 404 或 500 错误

```bash

确认模型名称正确

ollama list

查看实际下载的模型名称和标签

检查 API 端点

正确:http://localhost:11434/api/generate

错误:http://localhost:11434/generate

检查请求格式

应该是 JSON 格式,Content-Type: application/json

查看 Ollama 服务日志

curl http://localhost:11434/api/tags

如果返回 {"models":[]} 说明服务正常但模型未加载

模型未自动加载时的处理

某些情况下模型需要手动加载

ollama run llama3.2:3b &

然后等待加载完成再调用 API

```

中文回答出现乱码

```bash

1. 确认终端编码

export LANG=en_US.UTF-8

export LANG=zh_CN.UTF-8

2. 使用支持中文的模型

ollama pull qwen2.5:7b

3. API 调用时指定 UTF-8

curl - http://localhost:11434/api/generate   -d '{"model":"qwen2.5:7b","prompt":"你好","stream":false}'   -H "Content-Type: application/json"

4. 检查 Python 调用的编码设置

print(response.text.encode('utf-8').decode('utf-8'))```

Docker 中无法使用 GPU

```bash

1. 确认 nvidia-container-toolkit 已安装

docker run --rm --gpus all nvidia/cuda:12.1.0-base-ubuntu22.04 nvidia-smi

2. 检查 Docker 默认 runtime

cat /etc/docker/daemon.json

应该包含 "default-runtime": "nvidia" 或正确配置 nvidia 作为 runtime

3. 正确运行 Ollama Docker

docker run -d   --name ollama   --gpus all   -v ollama_data:/root/.ollama   -p 11434:11434   ollama/ollama:latest

4. 检查容器内 GPU 可用性

docker exec -it ollama nvidia-smi

5. 如果使用 docker-compose

docker-compose.yml 中需要正确配置

services:  ollama:    image: ollama/ollama:latest    volumes:

ports:

deploy:      resources:        reservations:          devices:

  • ollama_data:/root/.ollama
  • "11434:11434"
  • driver: nvidia

count: all              capabilities: [gpu]```

模型回复质量差

```bash

1. 调高 temperature(增加创造性)

ollama run llama3.2:3b --temperature 0.9

2. 使用更强大的模型

ollama pull qwen2.5:14bollama pull llama3.3:8b

3. 优化系统提示词(创建 Modelfile)

给模型更清晰的角色定义和行为指导

4. 使用专门优化的模型

代码问题用 qwen2.5-coder:7b

数学问题用 qwen2.5-math:7b

对话用 qwen2.5:7b

5. 增加上下文窗口

ollama run llama3.2:3b --numctx 8192```

上下文窗口限制问题

模型有最大处理的 Token 数量限制:```bash

默认上下文窗口(模型决定最大值)

llama3.2:3b 默认 131072 tokens

phi3:3.8b 默认 4096 tokens

设置合适的上下文大小(不要超过模型最大值)

ollama run llama3.2:3b --numctx 8192

过长的对话会遗忘早期内容

解决:开始新对话或使用 RAG(检索增强生成)

检查当前模型的最大上下文

ollama show llama3.2:3b | grep context```

十、性能优化与生产部署

推理性能优化

```bash

1. 使用量化模型减少计算量

ollama pull llama3.2:3b-q4_K_M  # 推荐

2. 批量处理请求

使用 Python 异步调用

import asynciofrom ollama import AsyncClientasync def batch_generate(prompts):    tasks = [AsyncClient().generate(model='llama3.2:3b', prompt=p) for p in prompts]    return await asyncio.gather(*tasks)

3. 预热模型

ollama run llama3.2:3b "warmup"  # 首次推理较慢

4. 使用更快的模型

ollama pull phi3:3.8b  # 更小更快ollama pull llama3.2:1b  # 最小最快```

使用 Ollama 作为 LangChain 后端

```pythonfrom langchain_community.chat_models import ChatOllamafrom langchain_core.messages import HumanMessagellm = ChatOllama(model="llama3.2:3b", temperature=0.7)

同步调用

response = llm.invoke([HumanMessage(content="What is 2+2?")])print(response.content)

流式调用

for chunk in llm.stream([HumanMessage(content="Write a story")]):    print(chunk.content, end="", flush=True)```

Nginx 反向代理配置

```nginxserver {    listen 443 ssl;    server_name your-domain.com;    ssl_certificate /path/to/cert.pem;    ssl_certificate_key /path/to/key.pem;    location / {        proxy_pass http://127.0.0.1:11434;        proxy_http_version 1.1;        proxy_set_header Host localhost;        proxy_set_header Connection '';        proxy_set_header X-Real-IP $remote_addr;        proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;        # 流式响应支持        proxy_buffering off;        proxy_cache off;        chunked_transfer_encoding on;        proxy_read_timeout 86400s;        proxy_send_timeout 86400s;    }}```

Systemd 服务配置

创建 Ollama 系统服务以便开机自启:```bash

创建服务文件

sudo tee /etc/systemd/system/ollama.service << 'EOF'[Unit]Description=Ollama ServiceAfter=network-online.target[Service]Type=simpleUser=ollamaGroup=ollamaExecStart=/usr/bin/ollama serveEnvironment="PATH=/usr/local/cuda/bin:$PATH"Environment="OLLAMA_MODELS=/data/ollama/models"Restart=alwaysRestartSec=10[Install]WantedBy=default.targetEOF

创建用户和目录

sudo useradd -r -s /bin/false -m -d /usr/share/ollama ollama 2>/dev/null || truesudo mkdir -p /data/ollama/modelssudo chown -R ollama:ollama /data/ollama

启用并启动

sudo systemctl daemon-reloadsudo systemctl enable ollamasudo systemctl start ollama

检查状态

sudo systemctl status ollama```

结语

Ollama 让本地大模型部署变得前所未有的简单。本文从基础概念出发,详细介绍了在各平台上的安装配置、GPU 加速设置、模型下载与管理、REST API 调用、自定义模型创建,以及 12 种常见问题的解决方案。掌握这些知识后,你已经可以在本地环境中自由部署和运行各种开源大模型。无论是个人学习、软件开发还是团队协作,Ollama 都是一个值得深入使用的工具。建议从一个小模型(如 llama3.2:3b)开始,逐步熟悉各种操作后再尝试更大规模的模型。

基本 文件 流程 错误 SQL 调试
  1. 请求信息 : 2026-04-30 01:57:36 HTTP/1.1 GET : https://www.yeyulingfeng.com/a/569075.html
  2. 运行时间 : 0.119452s [ 吞吐率:8.37req/s ] 内存消耗:4,531.06kb 文件加载:145
  3. 缓存信息 : 0 reads,0 writes
  4. 会话信息 : SESSION_ID=b1c0481e60f21c1bc55fad185be87bd0
  1. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/public/index.php ( 0.79 KB )
  2. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/autoload.php ( 0.17 KB )
  3. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/composer/autoload_real.php ( 2.49 KB )
  4. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/composer/platform_check.php ( 0.90 KB )
  5. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/composer/ClassLoader.php ( 14.03 KB )
  6. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/composer/autoload_static.php ( 6.05 KB )
  7. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-helper/src/helper.php ( 8.34 KB )
  8. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-validate/src/helper.php ( 2.19 KB )
  9. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/ralouphie/getallheaders/src/getallheaders.php ( 1.60 KB )
  10. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/helper.php ( 1.47 KB )
  11. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/stubs/load_stubs.php ( 0.16 KB )
  12. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/Exception.php ( 1.69 KB )
  13. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-container/src/Facade.php ( 2.71 KB )
  14. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/symfony/deprecation-contracts/function.php ( 0.99 KB )
  15. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/symfony/polyfill-mbstring/bootstrap.php ( 8.26 KB )
  16. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/symfony/polyfill-mbstring/bootstrap80.php ( 9.78 KB )
  17. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/symfony/var-dumper/Resources/functions/dump.php ( 1.49 KB )
  18. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-dumper/src/helper.php ( 0.18 KB )
  19. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/symfony/var-dumper/VarDumper.php ( 4.30 KB )
  20. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/guzzlehttp/guzzle/src/functions_include.php ( 0.16 KB )
  21. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/guzzlehttp/guzzle/src/functions.php ( 5.54 KB )
  22. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/App.php ( 15.30 KB )
  23. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-container/src/Container.php ( 15.76 KB )
  24. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/psr/container/src/ContainerInterface.php ( 1.02 KB )
  25. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/app/provider.php ( 0.19 KB )
  26. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/Http.php ( 6.04 KB )
  27. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-helper/src/helper/Str.php ( 7.29 KB )
  28. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/Env.php ( 4.68 KB )
  29. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/app/common.php ( 0.03 KB )
  30. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/helper.php ( 18.78 KB )
  31. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/Config.php ( 5.54 KB )
  32. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/config/alipay.php ( 3.59 KB )
  33. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/facade/Env.php ( 1.67 KB )
  34. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/config/app.php ( 0.95 KB )
  35. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/config/cache.php ( 0.78 KB )
  36. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/config/console.php ( 0.23 KB )
  37. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/config/cookie.php ( 0.56 KB )
  38. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/config/database.php ( 2.48 KB )
  39. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/config/filesystem.php ( 0.61 KB )
  40. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/config/lang.php ( 0.91 KB )
  41. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/config/log.php ( 1.35 KB )
  42. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/config/middleware.php ( 0.19 KB )
  43. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/config/route.php ( 1.89 KB )
  44. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/config/session.php ( 0.57 KB )
  45. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/config/trace.php ( 0.34 KB )
  46. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/config/view.php ( 0.82 KB )
  47. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/app/event.php ( 0.25 KB )
  48. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/Event.php ( 7.67 KB )
  49. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/app/service.php ( 0.13 KB )
  50. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/app/AppService.php ( 0.26 KB )
  51. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/Service.php ( 1.64 KB )
  52. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/Lang.php ( 7.35 KB )
  53. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/lang/zh-cn.php ( 13.70 KB )
  54. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/initializer/Error.php ( 3.31 KB )
  55. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/initializer/RegisterService.php ( 1.33 KB )
  56. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/services.php ( 0.14 KB )
  57. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/service/PaginatorService.php ( 1.52 KB )
  58. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/service/ValidateService.php ( 0.99 KB )
  59. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/service/ModelService.php ( 2.04 KB )
  60. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-trace/src/Service.php ( 0.77 KB )
  61. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/Middleware.php ( 6.72 KB )
  62. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/initializer/BootService.php ( 0.77 KB )
  63. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/Paginator.php ( 11.86 KB )
  64. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-validate/src/Validate.php ( 63.20 KB )
  65. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/Model.php ( 23.55 KB )
  66. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/model/concern/Attribute.php ( 21.05 KB )
  67. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/model/concern/AutoWriteData.php ( 4.21 KB )
  68. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/model/concern/Conversion.php ( 6.44 KB )
  69. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/model/concern/DbConnect.php ( 5.16 KB )
  70. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/model/concern/ModelEvent.php ( 2.33 KB )
  71. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/model/concern/RelationShip.php ( 28.29 KB )
  72. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-helper/src/contract/Arrayable.php ( 0.09 KB )
  73. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-helper/src/contract/Jsonable.php ( 0.13 KB )
  74. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/model/contract/Modelable.php ( 0.09 KB )
  75. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/Db.php ( 2.88 KB )
  76. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/DbManager.php ( 8.52 KB )
  77. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/Log.php ( 6.28 KB )
  78. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/Manager.php ( 3.92 KB )
  79. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/psr/log/src/LoggerTrait.php ( 2.69 KB )
  80. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/psr/log/src/LoggerInterface.php ( 2.71 KB )
  81. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/Cache.php ( 4.92 KB )
  82. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/psr/simple-cache/src/CacheInterface.php ( 4.71 KB )
  83. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-helper/src/helper/Arr.php ( 16.63 KB )
  84. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/cache/driver/File.php ( 7.84 KB )
  85. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/cache/Driver.php ( 9.03 KB )
  86. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/contract/CacheHandlerInterface.php ( 1.99 KB )
  87. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/app/Request.php ( 0.09 KB )
  88. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/Request.php ( 55.78 KB )
  89. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/app/middleware.php ( 0.25 KB )
  90. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/Pipeline.php ( 2.61 KB )
  91. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-trace/src/TraceDebug.php ( 3.40 KB )
  92. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/middleware/SessionInit.php ( 1.94 KB )
  93. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/Session.php ( 1.80 KB )
  94. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/session/driver/File.php ( 6.27 KB )
  95. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/contract/SessionHandlerInterface.php ( 0.87 KB )
  96. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/session/Store.php ( 7.12 KB )
  97. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/Route.php ( 23.73 KB )
  98. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/route/RuleName.php ( 5.75 KB )
  99. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/route/Domain.php ( 2.53 KB )
  100. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/route/RuleGroup.php ( 22.43 KB )
  101. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/route/Rule.php ( 26.95 KB )
  102. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/route/RuleItem.php ( 9.78 KB )
  103. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/route/app.php ( 3.94 KB )
  104. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/facade/Route.php ( 4.70 KB )
  105. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/route/dispatch/Controller.php ( 4.74 KB )
  106. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/route/Dispatch.php ( 10.44 KB )
  107. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/app/controller/Index.php ( 9.87 KB )
  108. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/app/BaseController.php ( 2.05 KB )
  109. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/facade/Db.php ( 0.93 KB )
  110. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/db/connector/Mysql.php ( 5.44 KB )
  111. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/db/PDOConnection.php ( 52.47 KB )
  112. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/db/Connection.php ( 8.39 KB )
  113. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/db/ConnectionInterface.php ( 4.57 KB )
  114. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/db/builder/Mysql.php ( 16.58 KB )
  115. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/db/Builder.php ( 24.06 KB )
  116. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/db/BaseBuilder.php ( 27.50 KB )
  117. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/db/Query.php ( 15.71 KB )
  118. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/db/BaseQuery.php ( 45.13 KB )
  119. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/db/concern/TimeFieldQuery.php ( 7.43 KB )
  120. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/db/concern/AggregateQuery.php ( 3.26 KB )
  121. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/db/concern/ModelRelationQuery.php ( 20.07 KB )
  122. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/db/concern/ParamsBind.php ( 3.66 KB )
  123. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/db/concern/ResultOperation.php ( 7.01 KB )
  124. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/db/concern/WhereQuery.php ( 19.37 KB )
  125. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/db/concern/JoinAndViewQuery.php ( 7.11 KB )
  126. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/db/concern/TableFieldInfo.php ( 2.63 KB )
  127. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-orm/src/db/concern/Transaction.php ( 2.77 KB )
  128. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/log/driver/File.php ( 5.96 KB )
  129. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/contract/LogHandlerInterface.php ( 0.86 KB )
  130. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/log/Channel.php ( 3.89 KB )
  131. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/event/LogRecord.php ( 1.02 KB )
  132. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-helper/src/Collection.php ( 16.47 KB )
  133. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/facade/View.php ( 1.70 KB )
  134. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/View.php ( 4.39 KB )
  135. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/app/controller/Es.php ( 3.30 KB )
  136. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/Response.php ( 8.81 KB )
  137. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/response/View.php ( 3.29 KB )
  138. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/Cookie.php ( 6.06 KB )
  139. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-view/src/Think.php ( 8.38 KB )
  140. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/framework/src/think/contract/TemplateHandlerInterface.php ( 1.60 KB )
  141. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-template/src/Template.php ( 46.61 KB )
  142. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-template/src/template/driver/File.php ( 2.41 KB )
  143. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-template/src/template/contract/DriverInterface.php ( 0.86 KB )
  144. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/runtime/temp/c935550e3e8a3a4c27dd94e439343fdf.php ( 31.50 KB )
  145. /yingpanguazai/ssd/ssd1/www/wwww.yeyulingfeng.com/vendor/topthink/think-trace/src/Html.php ( 4.42 KB )
  1. CONNECT:[ UseTime:0.000504s ] mysql:host=127.0.0.1;port=3306;dbname=wenku;charset=utf8mb4
  2. SHOW FULL COLUMNS FROM `fenlei` [ RunTime:0.000839s ]
  3. SELECT * FROM `fenlei` WHERE `fid` = 0 [ RunTime:0.000347s ]
  4. SELECT * FROM `fenlei` WHERE `fid` = 63 [ RunTime:0.000238s ]
  5. SHOW FULL COLUMNS FROM `set` [ RunTime:0.000489s ]
  6. SELECT * FROM `set` [ RunTime:0.000197s ]
  7. SHOW FULL COLUMNS FROM `article` [ RunTime:0.000492s ]
  8. SELECT * FROM `article` WHERE `id` = 569075 LIMIT 1 [ RunTime:0.000486s ]
  9. UPDATE `article` SET `lasttime` = 1777485456 WHERE `id` = 569075 [ RunTime:0.014606s ]
  10. SELECT * FROM `fenlei` WHERE `id` = 64 LIMIT 1 [ RunTime:0.000427s ]
  11. SELECT * FROM `article` WHERE `id` < 569075 ORDER BY `id` DESC LIMIT 1 [ RunTime:0.000623s ]
  12. SELECT * FROM `article` WHERE `id` > 569075 ORDER BY `id` ASC LIMIT 1 [ RunTime:0.000344s ]
  13. SELECT * FROM `article` WHERE `id` < 569075 ORDER BY `id` DESC LIMIT 10 [ RunTime:0.000555s ]
  14. SELECT * FROM `article` WHERE `id` < 569075 ORDER BY `id` DESC LIMIT 10,10 [ RunTime:0.002571s ]
  15. SELECT * FROM `article` WHERE `id` < 569075 ORDER BY `id` DESC LIMIT 20,10 [ RunTime:0.000525s ]
0.122872s