看到有人吐槽现在的 AI 客户端动不动就占几百兆内存,我立马想起了当年被 Electron 应用支配的恐惧。结果今天就在 Reddit 刷到一个叫 OGPT 的预览版,作者说就是被500MB 的臃肿 UI给逼出来的,他自己用 VS Code 搞了个新东西。
- 核心卖点是2MB 大小,完全不用 Electron 或 Chromium 框架。
- 内置了模型商店,可以直接在应用里浏览和下载模型。
- 原生支持 Tailscale 这类远程访问,对远程开发友好。
这玩意儿到底怎么个轻量法?
作者的原话是“I was tired of heavy UIs that take 500MB of RAM”。所以他做的这个 OGPT 预览版,所有图标都用 SVG,UI 保持清晰小巧。说白了,就是把所有能省的体积都省了。除了一个集成的时钟工具(作者说后续还会加),它现在就是个纯粹的模型交互前端。
轻量归轻量,该有的功能没少
最让我觉得方便的是内置的模型商店。不用再切浏览器去 HuggingFace 或者别的地方找模型,在应用里就能直接浏览和下载,这个对于经常折腾模型的人来说是刚需。而且它“Works perfectly with Tailscale / Remote IPs”,作者特别强调了远程就绪。如果你有服务器或者远程开发机,用这个客户端连过去会很舒服。

帖子最后,作者 u/Unknow6381 在向社区征集反馈:“What features should I add next to keep it the lightest UI ever?” 他问接下来加什么功能才能保持它作为最轻量级 UI 的地位。看得出来,他是真想坚持这个“轻”的路线。
留言聊聊
你会为了省几百兆内存,去换一个功能相对简单的轻量级客户端吗?
来源:Reddit Ollama|原文:OllamaGPT Teaser
夜雨聆风