乐于分享
好东西不私藏

Mozilla 用这个姿势杀入 AI 助手赛道

Mozilla 用这个姿势杀入 AI 助手赛道

推荐一个公众号,定期分享独立开发者的创收实践,也许有适合你的实践

Thunderbolt 是 Mozilla 旗下 Thunderbird(就是那个老牌邮件客户端)团队做的开源 AI 客户端。一句话定位:

AI You Control:选择你自己的模型,拥有你自己的数据,消灭供应商锁定。

它不是一个聊天机器人,也不是又一个 LLM wrapper——而是一个跨平台的企业级 AI 桌面/移动客户端,支持本地部署、多模型切换、全平台覆盖(Web、iOS、Android、Mac、Linux、Windows)。

技术栈用的是 Tauri 做桌面端,TypeScript 为主,MPL 2.0 开源协议。

GitHub 数据

指标 数值
总 Stars 3,482
日新增 596
语言 TypeScript
协议 Mozilla Public License 2.0
状态 早期开发中,安全审计进行中

单日涨 596 Star,对于一个刚开源的项目来说,增速相当猛。

解决什么问题?

当前 AI 助手市场有个核心矛盾:大家都在造围墙花园

  • ChatGPT 的数据在 OpenAI 服务器上
  • Claude 的数据在 Anthropic 服务器上
  • 各种 AI SaaS 产品各自为政

企业用户想用 AI,但面临三个痛点:

  1. 数据隐私:敏感代码、商业文档不想发给第三方 API
  2. 供应商锁定:被一家模型厂商绑架,切换成本高
  3. 离线场景:有些环境压根不能联网

Thunderbolt 的解法很直接:做一个通用的 AI 客户端壳,模型你自己选,数据你自己存,部署你自己来。

值得关注的三个点

1. Mozilla 品牌背书,不是个人项目

这可能是最重要的一点。AI 客户端赛道已经有好几个玩家了(Open WebUI、LobeChat、LibreChat……),但 Thunderbolt 背后是 Mozilla 基金会——做了 Firefox 的那个组织。

品牌信任度、安全审计能力、企业销售网络,这些都是个人开发者很难搞到的资源。MPL 2.0 协议也比 MIT/GPL 更适合企业采纳。

2. 全平台覆盖 + Tauri 技术选型

大部分开源 AI 客户端要么只做 Web,要么只做桌面。Thunderbolt 用 Tauri(Rust 后端 + Web 前端)实现了:

  • 桌面端:Mac、Linux、Windows
  • 移动端:iOS、Android
  • Web 端

全平台统一技术栈,包体小(Tauri 相比 Electron 轻很多)。这个覆盖广度在开源 AI 客户端里几乎是独一份。

3. 企业本地部署的定位

项目 README 里明确写了「目前面向想要本地部署的企业客户」。Docker Compose / Kubernetes 一键部署,配合 Ollama 或 llama.cpp 做本地推理。

这不是面向 C 端用户的产品——这是一个 B 端基础设施。Mozilla 做的这个定位选择很聪明:C 端 AI 客户端很难变现,但企业内网部署的 AI 工具是个真金白银的市场。

我的启发

开源不等于免费,定位决定商业模式

Thunderbolt 的 README 里有一句很关键的话:「Enterprise features, support, and FDEs available」。

翻译:开源的是社区版,企业功能、技术支持和全企业部署(FDE)是要付费的。

这就是经典的 Open Core 模式,Red Hat、GitLab、Elastic 都验证过的路。Mozilla 在开源这条路上走了二十多年,对这个模式的理解比大多数 AI 创业者深得多。

「AI 客户端」这个赛道远没到终局

ChatGPT 桌面应用、Claude 桌面应用、Cursor、Windsurf……每个人都在做自己的客户端。但真正能做到模型无关、数据自有、全平台覆盖的,目前还是空白。

Thunderbolt 不是最早的,但可能是品牌最强的。接下来的竞争看点是:谁能先把体验做到「开箱即用」的程度——目前 Thunderbolt 还需要自己配 Ollama、自己部署后端,门槛不低。

给独立开发者的启示

如果你在做 AI 相关的产品,Thunderbolt 给了一个思路:

不要跟大模型厂商拼模型能力,去拼「最后一公里」的体验和信任。

模型会越来越同质化(开源模型追平闭源的节奏越来越快),但谁能解决企业「敢不敢用」的问题,谁就有定价权。


项目地址:https://github.com/thunderbird/thunderbolt