乐于分享
好东西不私藏

每次和 AI 对话都在"烧钱"?这个工具让 Token 消耗直降 90%

每次和 AI 对话都在"烧钱"?这个工具让 Token 消耗直降 90%

每次和 AI 对话都在”烧钱”?这个工具让 Token 消耗直降 90%

你有没有发现,用 Claude Code、Cursor 这类 AI 编程助手,一不小心 Token 就用光了? 原来问题不在于你问了多少问题,而在于命令行输出”太啰唆”——RTK 就是来解决这个的。


什么是 RTK?

RTK(GitHub 地址)是一个 CLI 代理工具,用 Rust 编写,只有一个二进制文件,零外部依赖,启动开销不到 10ms。

它的核心功能非常简单:拦截你的终端命令输出,在交给 AI 之前先”压缩”一遍,把没用的废话过滤掉,只留下 AI 真正需要看的信息。


为什么需要它?

以 git push 为例:

没有 RTK 时(约 200 个 Token):

Enumerating objects: 5, done.Counting objects: 100% (5/5), done.Delta compression using up to 8 threadsCompressing objects: 100% (3/3), done.Writing objects: 100% (3/3), ......(一堆你看都不看的过程信息)

有 RTK 之后(约 10 个 Token):

ok main

就这两个词,AI 就知道推送成功了,主分支是 main节省了 95% 的 Token,而且信息量完全没损失。


压缩原理:四种策略

RTK 针对不同命令类型,灵活组合以下四种策略:

策略
作用
智能过滤
删除注释、空白行、样板代码等噪音
分组聚合
把相似内容合并(如按目录归组文件)
截断裁剪
保留关键上下文,去除重复冗余
去重折叠
把重复的日志行合并,加个计数

实测节省了多少?

根据官方数据,对于一个中型 TypeScript/Rust 项目,30 分钟的 Claude Code 会话中:

命令
Token 节省幅度
ls

 / tree 目录列表
60–80%
git status

 / git diff
70–90%
git push

 / git commit
~95%
cargo test

 / npm test 测试输出
~90%
docker ps

 / docker logs
60–80%
ESLint / TypeScript 检查
70–85%

快速上手

第一步:安装

macOS(推荐 Homebrew):

brew install rtk

Linux / macOS(一键脚本):

curl -fsSL https://raw.githubusercontent.com/rtk-ai/rtk/refs/heads/master/install.sh | sh

Windows(下载预编译包):

前往 Releases 页面 下载 rtk-x86_64-pc-windows-msvc.zip

验证安装:

rtk --version   # 应显示 rtk 0.28.xrtk gain        # 查看 Token 节省统计

第二步:集成到你的 AI 工具

RTK 支持 9 种主流 AI 编程工具,只需一条初始化命令:

rtk init -g              # Claude Code(默认)rtk init -g --gemini     # Gemini CLIrtk init -g --codex      # OpenAI Codexrtk init -g --agent cursor   # Cursorrtk init --agent windsurf    # Windsurfrtk init --agent cline       # Cline / Roo Code

初始化后,重启你的 AI 工具。之后,当 AI 执行 git status 时,RTK 会无声无息地把它转成 rtk git status,AI 完全感知不到这个过程,只会看到更精简的输出。


第三步:直接使用 RTK 命令(可选)

你也可以手动调用 RTK 命令:

# 文件操作rtk ls .                  # 精简版目录树rtk read main.rs          # 智能读取文件rtk grep "pattern" .      # 分组显示搜索结果# Git 操作rtk git status            # 紧凑状态rtk git log -n 10         # 每次提交一行显示rtk git diff              # 压缩的差异对比# 测试输出rtk test cargo test       # 只显示失败的用例(节省 90%)rtk pytest                # Python 测试精简输出# 查看节省统计rtk gain                  # 汇总统计rtk gain --graph          # ASCII 折线图(近 30 天)rtk gain --daily          # 按天拆分明细

一个贴心的小设计:失败时保留完整日志

RTK 压缩输出,但如果命令执行失败,它会自动把完整的原始输出保存成日志文件:

FAILED: 2/15 tests [full output: ~/.local/share/rtk/tee/1707753600_cargo_test.log]

AI 可以直接去读这个完整日志,不需要重新执行命令。两全其美。


谁适合用 RTK?

  • ✅ 重度 AI 编程用户:每天用 Claude Code、Cursor、Copilot 写代码
  • ✅ Token 快用光的人:总觉得额度不够用
  • ✅ 希望 AI 响应更准确的人:噪音少了,AI 理解更精准
  • ✅ 多项目开发者:RTK 支持按项目统计节省量

总结

RTK 把一件事做到了极致:让 AI 看到更干净的终端输出

它不改变你的工作流,不需要你改习惯,安装完一个命令搞定集成,之后一切透明运行。60–90% 的 Token 节省,意味着同样的费用可以做更多事,或者同样的工作量少花很多钱。

如果你是 AI 编程工具的重度用户,RTK 绝对值得花 5 分钟装上试试。


项目地址:https://github.com/rtk-ai/rtk