AI 开发者必备:4款内网穿透工具,让本地大模型服务秒变公网 API
概述
AI 开发中,我们经常需要将本地部署的大模型服务(如 Ollama、vLLM)暴露给外部调用,但本地服务只能通过 localhost 访问,无法提供 API 给前端或第三方。内网穿透工具可以一条命令将本地 AI 服务暴露到公网,无需服务器、无需公网IP,极大简化开发调试流程。
本文介绍4款主流内网穿透工具,从零配置到生产级方案,帮你选择最适合的方案。
核心痛点
-
本地大模型服务无法外网调用:Ollama、vLLM 等本地部署的大模型只能 localhost 访问,无法提供 API 给前端或第三方 -
Webhook 调试困难:AI 应用的回调接口、第三方 AI 平台联调需要公网地址 -
演示不便:临时给客户演示 AI 能力需要部署到服务器,流程繁琐 -
成本高昂:购买 GPU 服务器只为临时测试,资源浪费严重
支持协议
-
HTTP/HTTPS:REST API、Web 界面 -
WebSocket:实时对话、流式输出 -
TCP:数据库、Redis、SSH -
UDP:实时语音、游戏服务器
方案一:localhost.run — 最简 SSH 隧道
官网:https://localhost.run/
概念:基于 SSH 远程端口转发(-R 参数)的纯命令行隧道服务,无需安装任何软件。通过 SSH 协议建立加密隧道,将本地端口映射到公网。
支持协议:HTTP、HTTPS、TCP
国内速度:
-
延迟:无法连接(测试超时) -
稳定性:❌ 不稳定 -
说明:服务器在国外,国内访问受限
使用方法:
-
1 -
2 -
3 -
4 -
5
# 映射本地 AI API 服务ssh -R 80:localhost:11434 localhost.run# 映射本地数据库ssh -R 3306:localhost:3306 localhost.run
典型 AI 场景:
-
本地 Ollama 大模型 API 临时分享 -
本地 AI 应用调试 -
本地数据库远程访问
优点:
-
✅ 零配置,系统自带 SSH 即可 -
✅ 一条命令搞定 -
✅ 支持 TCP 协议
缺点:
-
❌ 国内访问不稳定,延迟高 -
❌ 免费版子域名几小时后变化 -
❌ 速度和带宽有限制
价格:
-
免费版:临时子域名 -
付费版:$9/月,支持自定义域名
方案二:pinggy.io — 带调试面板的 SSH 隧道
官网:https://pinggy.io/
概念:基于 SSH 反向隧道,提供终端交互界面,可查看请求日志和带宽统计。适合需要实时查看请求详情的调试场景。
支持协议:HTTP、HTTPS、TCP、UDP
国内速度:
-
延迟:220-225ms -
稳定性:✅ 基本稳定 -
说明:延迟较高,但可以正常使用
使用方法:
-
1 -
2 -
3 -
4 -
5
# 映射本地 AI API 服务ssh -p 443 -R0:localhost:11434 qr@free.pinggy.io# 映射本地 AI 应用ssh -p 443 -R0:localhost:8000 qr@free.pinggy.io
典型 AI 场景:
-
AI Webhook 回调调试 -
第三方 AI 平台接口联调 -
实时查看 AI 请求日志
优点:
-
✅ 零配置,系统自带 SSH 即可 -
✅ 提供调试面板和请求日志 -
✅ 免费版 URL 7 天内有效 -
✅ 支持 UDP 协议
缺点:
-
❌ 国内延迟 220ms 左右 -
❌ 60 分钟超时限制 -
❌ 随机子域名 -
❌ 访问时有品牌页
价格:
-
免费版:7 天有效 URL -
付费版:持久隧道、自定义域名
方案三:InstaTunnel — 免费自定义子域名
官网:https://instatunnel.my/
概念:基于 Node.js 的轻量隧道客户端,免费版即支持自定义子域名。适合需要稳定域名的临时分享场景。
支持协议:HTTP、HTTPS、WebSocket
国内速度:
-
延迟:230-235ms -
稳定性:✅ 基本稳定 -
说明:延迟较高,但可以正常使用
安装使用:
-
1 -
2 -
3 -
4 -
5 -
6 -
7 -
8
# 安装npm install -g instatunnel# 映射本地 AI API 服务instatunnel 11434 --subdomain my-ollama# 映射本地 AI 应用instatunnel 8000 --subdomain my-ai-app
典型 AI 场景:
-
本地 AI 项目演示给客户 -
前端 AI 应用实时预览 -
WebSocket AI 对话测试
优点:
-
✅ 免费支持自定义子域名 -
✅ 会话可持续 24 小时以上 -
✅ 支持 3 条同时隧道 -
✅ 支持 WebSocket(适合 AI 流式输出)
缺点:
-
❌ 国内延迟 230ms 左右 -
❌ 需要安装 Node.js -
❌ 无付费版(功能受限) -
❌ 不支持纯 TCP
价格:免费
方案四:Cloudflare Tunnel — 生产级内网穿透
官网:
Cloudflare Tunnel 文档
[https://developers.cloudflare.com/cloudflare-one/connections/connect-networks/
概念:Cloudflare 企业级隧道服务,自动提供 HTTPS 和 DDoS 防护。通过 cloudflared 客户端在本地服务与 Cloudflare 全球边缘网络之间建立加密的出站连接。
支持协议:HTTP、HTTPS、WebSocket、TCP、UDP、SSH、RDP
国内速度:
-
延迟:175-180ms -
稳定性:✅ 稳定(有丢包风险) -
说明:延迟最低,但偶有丢包,适合生产环境
安装方法:
macOS:
-
1 -
2 -
3 -
4 -
5 -
6
# 使用 Homebrew 安装(推荐)brew install cloudflared# 或者下载安装包curl -L https://github.com/cloudflare/cloudflared/releases/latest/download/cloudflared-darwin-amd64.tgz | tar xzsudo mv cloudflared /usr/local/bin/
Linux (Ubuntu/Debian):
-
1 -
2 -
3 -
4 -
5 -
6 -
7 -
8
# 添加 Cloudflare GPG 密钥wget -q https://packages.cloudflare.com/cloudflare-main.gpg -O- | sudo tee /usr/share/keyrings/cloudflare-main.gpg# 添加软件源echo"deb [signed-by=/usr/share/keyrings/cloudflare-main.gpg] https://packages.cloudflare.com/debian stable main" | sudo tee /etc/apt/sources.list.d/cloudflare.list# 安装sudo apt update && sudo apt install cloudflared
Linux (CentOS/RHEL):
-
1 -
2 -
3
# 添加 Cloudflare 仓库curl -L https://github.com/cloudflare/cloudflared/releases/latest/download/cloudflared-linux-x64.rpm -o cloudflared.rpmsudo rpm -i cloudflared.rpm
Windows:
-
1 -
2 -
3 -
4 -
5 -
6 -
7 -
8 -
9 -
10
# 使用 winget 安装(推荐)winget install Cloudflare.cloudflared# 或者使用 Chocolateychoco install cloudflared# 或者手动下载# 访问 https://github.com/cloudflare/cloudflared/releases/latest# 下载 cloudflared-windows-amd64.exe 并重命名为 cloudflared.exe# 将其放入 PATH 目录中
验证安装:
-
1
cloudflared --version
使用方法:
方式一:快速临时分享(无需账号)
-
1 -
2 -
3 -
4 -
5
# 将本地 AI API 映射到公网cloudflared tunnel --url http://localhost:11434# 执行后会生成临时地址,如:# https://random-words.trycloudflare.com
方式二:正式使用(需 Cloudflare 账号和自有域名)
第一步:登录认证
-
1 -
2
cloudflared tunnel login# 浏览器会打开授权页面,选择要使用的域名
第二步:创建隧道
-
1 -
2
cloudflared tunnel create my-ai-tunnel# 记录返回的隧道 ID
第三步:配置路由
创建配置文件 ~/.cloudflared/config.yml:
-
1 -
2 -
3 -
4 -
5 -
6 -
7 -
8 -
9
tunnel:<隧道ID>credentials-file:/home/用户名/.cloudflared/<隧道ID>.jsoningress:-hostname:api.你的域名.comservice:http://localhost:11434-hostname:app.你的域名.comservice:http://localhost:8000-service:http_status:404
第四步:启动隧道
-
1
cloudflared tunnel run my-ai-tunnel
第五步:配置 DNS
-
1
cloudflared tunnel route dns my-ai-tunnel api.你的域名.com
典型 AI 场景:
-
生产环境 AI API 服务暴露 -
远程访问内网 GPU 服务器 -
企业级 AI 应用部署
优点:
-
✅ 国内延迟最低(175ms) -
✅ 自动 HTTPS 和 DDoS 防护 -
✅ 无需公网 IP -
✅ 适合生产环境 -
✅ 免费版功能强大 -
✅ 支持所有协议(包括 WebSocket 流式输出)
缺点:
-
❌ 需要安装客户端 -
❌ 需要自有域名(托管在 Cloudflare) -
❌ 配置相对复杂 -
❌ 偶有丢包
价格:
-
免费版:适合开发和小型生产 -
企业版:更高性能、优先支持
国内速度实测对比
|
|
|
|
|
|
|---|---|---|---|---|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
测试环境:国内服务器,测试时间:2026-05-02说明:延迟数据仅供参考,实际速度可能因网络环境而异
总结对比
|
|
|
|
|
|
|
|---|---|---|---|---|---|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
AI 开发者选择建议
|
|
|
|
|---|---|---|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
注意事项
-
⚠️ localhost.run 国内无法访问,不推荐使用 -
⚠️ 免费服务都有时长/带宽限制,仅适合临时测试 -
⚠️ 生产环境推荐 Cloudflare Tunnel -
⚠️ 敏感数据传输建议使用 HTTPS 加密 -
⚠️ AI 流式输出建议使用 WebSocket 协议
夜雨聆风