乐于分享
好东西不私藏

使用这个工具你的AI可以省一半的Token

使用这个工具你的AI可以省一半的Token

使用这个工具你的AI可以省一半的Token

最近用Claude Code或者Codex写代码时,我越来越觉得,真正偷偷烧钱的,不是那一两句提示词,而是命令输出。

你让AI跑一次git status,它会把一长串改动状态、路径、提示信息全塞进上下文。你再让它跑cargo testpytestdocker ps、一堆重复日志、通过项、样板提示、进度条又继续往里灌。项目一大,token就像漏水一样往下掉。

前几天偶然在GitHub上翻到一个开源工具RTK,全名是Rust Token Killer。它干的事不复杂,但很实用:在命令输出进入LLM上下文之前,先做一层压缩,把噪音过滤掉,把重复内容合并掉,把真正有用的结果留下来。

它到底能省多少

如果你只是觉得“省一点点”,那就低估它了。

RTK官方README给的估算很直接。在一个30分钟的Claude Code会话里,常见命令的token开销大概能从约118000压到约23900,整体节省接近80%。单看常见场景,git status大约能省80%,cargo testpytest这类测试命令通常能省90%左右。

命令
普通输出
RTK后
节省
git status
3000
600
80%
git diff
10000
2500
75%
cargo test

 / npm test
25000
2500
90%
pytest
8000
800
90%

所以题目里说“省一半”其实已经很保守了。对测试、构建、日志这类高噪音命令来说,很多时候不止一半。下图是官方给的完整对比

它是怎么做到的

RTK的思路非常朴素:不改你的项目,不碰你的模型,只处理命令行输出。

按官方文档,它主要做四件事:

  1. 智能过滤。去掉注释、空白、样板提示、进度条这类噪音。
  2. 分组整理。把相似结果按目录、文件或错误类型折叠起来。
  3. 截断冗余。保留关键上下文,不把几百行重复信息全塞给AI。
  4. 去重合并。重复日志不再逐行输出,而是变成“某类信息重复了多少次”。

举个最直观的例子。cargo test正常输出里,最占token的常常不是失败信息,而是一大堆“通过了什么”。RTK会优先把失败、错误、警告留下来,把那些对下一步决策帮助不大的内容压缩掉。git statusgit logdocker logskubectl logs也是同一类问题。

怎么装,怎么接进AI工具里

安装方式有三种,最省事的是:

brew install rtk

或者:

curl -fsSL https://raw.githubusercontent.com/rtk-ai/rtk/master/install.sh | sh

如果你习惯用Cargo安装,官方更推荐这一条:

cargo install --git https://github.com/rtk-ai/rtk

这里要注意一个小坑:crates.io上还有另一个同名的rtk项目。装完之后最好马上跑一下:

rtk --version
rtk gain

只要rtk gain能正常显示token节省统计,说明你装对了。

接入方式也挺简单,但不同AI工具略有区别。

如果你用的是Claude Code,推荐直接执行:

rtk init -g

它会给Claude Code装上Hook,让像git status这样的shell命令在执行前透明改写成rtk git status。你的使用习惯基本不用变。

如果你用的是Codex,对应命令是:

rtk init -g --codex

这个模式不会像Claude Code那样走Hook,而是把规则写到~/.codex/RTK.md~/.codex/AGENTS.md里,让Codex在执行shell命令时优先使用rtk

除了Claude Code和Codex,RTK现在还支持Cursor、GitHub Copilot、Gemini CLI、Windsurf、Cline/Roo Code、OpenCode、OpenClaw等工具。官方README里列的是10款已支持的AI编程工具。

平时怎么用

即便你暂时不想接Hook,也可以先手动用起来:

rtk git status
rtk cargo test
rtk pytest
rtk docker ps
rtk kubectl pods

RTK现在已经覆盖了100多个常用命令,除了gitcargopytest,还包括dockerkubectlghtscruffgo testpnpm listaws这些高频开发场景。

另外我觉得很实用的一个命令是:

rtk gain

它会直接告诉你,自己到底省了多少token。不是“感觉省了”,而是能看到统计结果。

值不值得装

如果你平时只是偶尔让AI写几行代码,这类工具的收益不会特别夸张。

但如果你已经把Claude Code、Codex、Cursor这类工具当成重度生产力工具来用,情况就不一样了。项目越大,命令输出越多,RTK这种“先压缩再喂给模型”的工具就越划算。它不改变你的工作流,改的是上下文里那些本来就没必要出现的噪音。

说白了,这不是一个“看上去很炫”的工具,而是一个很实在的省钱工具。

如果你最近正被AI编程的token消耗搞得有点肉疼,可以直接试一下。保守地说,省一半;按官方给的数据看,很多场景远不止一半。

参考链接

  • RTK GitHub仓库:https://github.com/rtk-ai/rtk
  • RTK官网:https://www.rtk-ai.app