每次和 AI 对话都在"烧钱"?这个工具让 Token 消耗直降 90%
每次和 AI 对话都在”烧钱”?这个工具让 Token 消耗直降 90%
你有没有发现,用 Claude Code、Cursor 这类 AI 编程助手,一不小心 Token 就用光了? 原来问题不在于你问了多少问题,而在于命令行输出”太啰唆”——RTK 就是来解决这个的。
什么是 RTK?
RTK(GitHub 地址)是一个 CLI 代理工具,用 Rust 编写,只有一个二进制文件,零外部依赖,启动开销不到 10ms。
它的核心功能非常简单:拦截你的终端命令输出,在交给 AI 之前先”压缩”一遍,把没用的废话过滤掉,只留下 AI 真正需要看的信息。
为什么需要它?
以 git push 为例:
没有 RTK 时(约 200 个 Token):
Enumerating objects: 5, done.Counting objects: 100% (5/5), done.Delta compression using up to 8 threadsCompressing objects: 100% (3/3), done.Writing objects: 100% (3/3), ......(一堆你看都不看的过程信息)
有 RTK 之后(约 10 个 Token):
ok main
就这两个词,AI 就知道推送成功了,主分支是 main。节省了 95% 的 Token,而且信息量完全没损失。
压缩原理:四种策略
RTK 针对不同命令类型,灵活组合以下四种策略:
|
|
|
|---|---|
| 智能过滤 |
|
| 分组聚合 |
|
| 截断裁剪 |
|
| 去重折叠 |
|
实测节省了多少?
根据官方数据,对于一个中型 TypeScript/Rust 项目,30 分钟的 Claude Code 会话中:
|
|
|
|---|---|
ls
tree 目录列表 |
60–80% |
git status
git diff |
70–90% |
git push
git commit |
~95% |
cargo test
npm test 测试输出 |
~90% |
docker ps
docker logs |
60–80% |
|
|
70–85% |
快速上手
第一步:安装
macOS(推荐 Homebrew):
brew install rtk
Linux / macOS(一键脚本):
curl -fsSL https://raw.githubusercontent.com/rtk-ai/rtk/refs/heads/master/install.sh | sh
Windows(下载预编译包):
前往 Releases 页面 下载 rtk-x86_64-pc-windows-msvc.zip
验证安装:
rtk --version # 应显示 rtk 0.28.xrtk gain # 查看 Token 节省统计
第二步:集成到你的 AI 工具
RTK 支持 9 种主流 AI 编程工具,只需一条初始化命令:
rtk init -g # Claude Code(默认)rtk init -g --gemini # Gemini CLIrtk init -g --codex # OpenAI Codexrtk init -g --agent cursor # Cursorrtk init --agent windsurf # Windsurfrtk init --agent cline # Cline / Roo Code
初始化后,重启你的 AI 工具。之后,当 AI 执行 git status 时,RTK 会无声无息地把它转成 rtk git status,AI 完全感知不到这个过程,只会看到更精简的输出。
第三步:直接使用 RTK 命令(可选)
你也可以手动调用 RTK 命令:
# 文件操作rtk ls . # 精简版目录树rtk read main.rs # 智能读取文件rtk grep "pattern" . # 分组显示搜索结果# Git 操作rtk git status # 紧凑状态rtk git log -n 10 # 每次提交一行显示rtk git diff # 压缩的差异对比# 测试输出rtk test cargo test # 只显示失败的用例(节省 90%)rtk pytest # Python 测试精简输出# 查看节省统计rtk gain # 汇总统计rtk gain --graph # ASCII 折线图(近 30 天)rtk gain --daily # 按天拆分明细
一个贴心的小设计:失败时保留完整日志
RTK 压缩输出,但如果命令执行失败,它会自动把完整的原始输出保存成日志文件:
FAILED: 2/15 tests [full output: ~/.local/share/rtk/tee/1707753600_cargo_test.log]
AI 可以直接去读这个完整日志,不需要重新执行命令。两全其美。
谁适合用 RTK?
-
✅ 重度 AI 编程用户:每天用 Claude Code、Cursor、Copilot 写代码 -
✅ Token 快用光的人:总觉得额度不够用 -
✅ 希望 AI 响应更准确的人:噪音少了,AI 理解更精准 -
✅ 多项目开发者:RTK 支持按项目统计节省量
总结
RTK 把一件事做到了极致:让 AI 看到更干净的终端输出。
它不改变你的工作流,不需要你改习惯,安装完一个命令搞定集成,之后一切透明运行。60–90% 的 Token 节省,意味着同样的费用可以做更多事,或者同样的工作量少花很多钱。
如果你是 AI 编程工具的重度用户,RTK 绝对值得花 5 分钟装上试试。
项目地址:https://github.com/rtk-ai/rtk
夜雨聆风