乐于分享
好东西不私藏

还在为 AI 编程工具充值?这个开源项目把 238 个免费模型都给你排好了

还在为 AI 编程工具充值?这个开源项目把 238 个免费模型都给你排好了

一个终端工具,帮你实时测速、筛选并一键接入 OpenCode、Cline、Hermes、OpenHands 等 AI 编程助手。
这两个月,很多人都在折腾一件事:
不是没有 AI 编程模型可用,恰恰相反,能用的太多了。
真正麻烦的是:有的模型看榜单很强,实际响应慢;有的平台号称免费,结果配起来很折腾;有的今天能用,明天就限流;更别说你还得自己把接口手动塞进 Cline、Continue、OpenHands、Hermes 这些工具里。
如果你也有这种感觉,那我最近看到的这个项目,确实很值得写一篇。
它叫 free-coding-models。
一句话概括:它会把散落在 25 个提供商里的 238+ 个免费编程模型,实时测一遍,然后把你选中的模型一键接入常见 AI Coding 工具。
先说几个我觉得最抓人的数据:
  1. GitHub Star 已经到 1.6k
  2. Fork 182
  3. 覆盖 238 个模型、25 个免费提供商
  4. 支持 OpenCode、OpenHands、Hermes、Cline、Continue、Goose、Aider、Qwen Code、Xcode 等一大串工具
  5. 最近一次主分支提交在 2026-04-30,项目还在活跃更新
更有意思的是,这项目不是单纯做了个“免费模型列表”。它真正解决的是:免费模型很多,但你根本不知道“现在这一刻”谁最快、谁最稳、谁适合你手上的工具。

一、它到底解决了什么问题?

很多人找免费模型,第一步是搜榜单,第二步是到处注册 API Key,第三步是手动改配置。
看起来省钱,实际上非常耗时间。
free-coding-models 的思路很直接:
  1. 先把能用的免费模型全部拉进来
  2. 并行测速
  3. 算稳定性分数
  4. 按你的工具和需求过滤
  5. 直接写入配置
项目 README 里给出的核心逻辑也很清楚:它不只看平均延迟,还会计算一个 0-100 的 Stability Score,用 p95 延迟、抖动、峰值波动和在线率综合判断。
这点很重要。
因为很多模型的问题不是“慢”,而是“忽快忽慢”。你写代码时最怕的,往往不是多等 1 秒,而是刚写到一半突然卡住、报错、超时。
所以这个项目本质上不是“免费模型黄页”,而更像一个“免费编程模型实时调度台”。

二、它最有价值的地方,不是模型多,而是上手链路短

README 首页第一屏就把使用方式写得很粗暴:
npm install -free-coding-modelsfree-coding-models
然后你只需要在某个提供商注册一个免费账号,就可以开始筛模型。
这意味着什么?
过去你可能要经历:找模型 → 查文档 → 复制 base URL → 找模型 ID → 改工具配置 → 测试是否可用。
现在它想压缩成:打开工具 → 看实时结果 → 选模型 → 一键装进你的编码助手。
这对普通开发者特别友好。
因为绝大多数人其实并不想研究 API 生态本身,他们只是想“马上找一个今天能打的免费模型开始写代码”。
项目还内置了不少很实用的场景命令,比如:
  1. free-coding-models –fiable
  2. :找当前最稳的模型
  3. free-coding-models –origin nvidia –tier S
  4. :只看 NVIDIA 的高阶模型
  5. free-coding-models –web
  6. :打开本地 Web Dashboard
  7. free-coding-models –daemon-bg
  8. :启动本地路由守护进程
它甚至支持 JSON 输出,说明作者显然也考虑到了脚本党和自动化工作流。

三、它不只是筛模型,已经开始做“本地路由层”了

这是我觉得这个项目最容易被低估的一点。
根据 CHANGELOG,项目最新版本已经加入了 Smart Model Router:它可以在本地启动一个 OpenAI 兼容的 daemon,让你的编码工具只对接一个 localhost 端点,后面由 free-coding-models 自动做模型路由、探活、故障切换和统计。
你可以简单理解成:
以前你是在“挑一个模型来用”;现在它开始尝试变成“给你一层免费模型网关”。
这一步其实很关键。
因为免费模型最常见的问题,就是波动大、限流强、不同提供商的可用性随时变。如果本地有一个路由层帮你自动切换候选模型,体验会稳定很多。
它还给了一个固定接入方式:
Base URL: http://localhost:19280/v1Model: fcmAPI key: fcm-local
也就是说,对很多兼容 OpenAI API 的工具来说,接入门槛会被进一步拉平。

四、这项目为什么容易火?

我觉得有 3 个原因。

1)它抓住了一个非常真实的需求

AI 编程已经进入“人人都想用、但不想一直付费”的阶段。
大家不是不用模型,而是在找更划算、更灵活的方案。free-coding-models 刚好切中这个需求:不是教你训练模型,不是讲论文,而是直接告诉你“现在有什么免费能用,哪个更适合写代码”。

2)它不是信息站,而是工具链入口

很多类似项目停留在“整理资源”。但这个项目更进一步,直接把“发现模型”和“配置工具”打通了。
这会让它的使用频率远高于普通榜单网站。

3)作者明显在认真做产品感

从 README 可以看出,它不只是 CLI。它有 TUI、Web Dashboard、Command Palette、Favorites、Router Dashboard、Token Usage 页面,甚至还有较完整的 Supply Chain / Security / Telemetry 说明。
比如项目明确写了:
运行时依赖只有 1 个:chalk
npm 发布带有 Sigstore provenance
SECURITY.md
CODEOWNERS
匿名遥测默认开启,但可通过参数或环境变量关闭
这类细节,会让项目从“个人小工具”变成“别人愿意放心装到自己开发环境里”的工具。

五、适合谁用?哪些地方要注意?

如果你属于下面几类人,我觉得都可以试:
  1. 想低成本体验 AI 编程的个人开发者
  2. 同时使用多个 coding agent / IDE 插件的人
  3. 想给 OpenCode、Hermes、OpenHands、Cline 之类工具接免费模型的人
  4. 喜欢在终端里完成筛选和配置的人
但也有几个前提要先讲清楚:
第一,它不是“完全零门槛免注册”。你还是要去对应提供商创建免费账号、拿 API Key。
第二,免费额度本来就会变。今天能打的模型,明天可能限流更严,所以它的“实时测速”和“路由”能力反而更重要。
第三,项目默认开启匿名遥测。虽然 README 明确写了不会收集 API Key、代码、提示词和文件路径,但如果你对这类数据非常敏感,最好手动关闭。

六、怎么上手最划算?

如果你今天就想试,我建议别一上来就研究全部功能。
最省时间的路径是:
    npm install -g free-coding-models
  1. 先注册一个免费提供商账号,比如 README 里列出的 NVIDIA NIM、Groq、Google AI Studio、OpenRouter 等
直接运行free-coding-models
先筛稳定模型,再决定要不要接进你常用的工具
如果你已经有多个免费 Key,再去尝试它的 Router 模式
对于重度用户,我反而更推荐直接关注它的 Router 方向。
因为一旦你的工作流已经离不开 AI 编码,真正有价值的不是“哪个模型今天最快”,而是“我能不能一直有一个尽量稳定的免费入口”。

七、最后一句

如果你问我,这个项目最值得看的地方是什么?
不是“238 个免费模型”这个数字本身。而是它把“找免费模型、测可用性、判断稳定性、接入编码工具”这条原本很碎的链路,硬生生压成了一个终端工具。
对开发者来说,这种项目最有价值的地方,往往不是炫技,而是省时间。
如果你最近正好在找:“有没有一个办法,让我尽量少花钱,也能把 AI 编程工具跑起来?”
那 free-coding-models,确实值得你亲自试一下。
项目地址:https://github.com/vava-nessa/free-coding-models