乐于分享
好东西不私藏

Caveman:让你的AI编程助手省 75% Token,支持 Claude、Cursor 等 40+ 工具

Caveman:让你的AI编程助手省 75% Token,支持 Claude、Cursor 等 40+ 工具

每次对话都在烧钱?Token 消耗的隐形陷阱

如果你经常使用 AI 编程助手(Claude Code、Cursor、GitHub Copilot 等),一定有过这种体验:聊着聊着,上下文窗口就满了,Token 消耗飞快,API 账单越来越高。

特别是长会话场景——调试一个复杂的 Bug、重构一个模块、或者让 AI 帮你设计系统架构——输入输出的 Token 累积起来非常可观。传统思路是”缩短对话”,但这等于牺牲开发效率来换成本控制,得不偿失。

有没有一种方法,既能保持沟通效率,又能显著降低成本?

答案是有的,而且比你想象的简单得多。

什么是 Caveman?

Caveman 是由开发者 Julius Brussee 创建的一款开源工具,目前在 GitHub 上迅速走红。它的核心理念非常直白:

“Why use many token when few token do trick?” (为什么用很多词,当几个词就够了?)

Caveman 让 AI 像”穴居人”一样说话——简洁、直接、没有废话。它不是简单地截断回复,而是智能地压缩语言表达,在保持完整技术准确性的前提下,大幅减少 Token 消耗。

最令人惊讶的是它的兼容性:Caveman 支持 Claude Code、Codex、Cursor、Windsurf、GitHub Copilot、Cline、Gemini CLI 等四十多种 AI 编程助手,几乎覆盖了当前所有主流工具。

四个强度级别:从 Lite 到文言文

Caveman 提供了四种灵活的压缩强度,你可以根据场景自由切换:

级别
触发命令
特点
适用场景
Lite /caveman lite
删除填充词,保留完整语法
需要专业感的正式对话
Full /caveman full
默认模式,删除冠词、使用片段
日常开发,推荐首选
Ultra /caveman ultra
最大压缩,电报式表达
追求极致效率
文言文 /caveman wenyan
古典中文风格
极客趣味

Lite 模式适合和同事协作时使用——听起来依然专业,但去掉了”我认为”、”实际上”、”简单来说”等填充词。Full 模式是日常开发的最佳选择,输出简洁但不失可读性。Ultra 模式将压缩推向极致,适合纯技术对话。而文言文模式则是一种有趣的”极客彩蛋”——用古典中文风格输出,风格独特。

三个实用子技能

除了核心的对话压缩功能,Caveman 还提供了三个实用的子技能:

1. caveman-commit — 超简洁提交信息

写 Git 提交信息时总是犹豫不决?这个子技能帮你生成符合 Conventional Commits 规范的超简洁提交信息,主题不超过五十个字符,强调”为什么改”而非”改了什么”。

2. caveman-review — 单行 PR 评论

代码审查时直接指出核心问题,格式简洁如: > L42: 🔴 bug: user null. Add guard.

没有长篇大论,只有精准的代码审查意见。

3. caveman-compress — 记忆文件压缩

这个功能可以压缩你的 CLAUDE.md 等记忆文件,将人类可读的文本转换成机器高效的格式。每次会话都能自动节省约 百分之四十六 的输入 Token。

安装和使用:一条命令搞定

安装 Caveman 非常简单。对于 Claude Code 用户,只需要两步:

# 添加 marketplaceclaude plugin marketplace add JuliusBrussee/caveman# 安装插件claude plugin install caveman@caveman

其他 AI 编程助手用户可以用 npx 安装:

# 通用安装npx skills add JuliusBrussee/caveman# 针对特定工具npx skills add JuliusBrussee/caveman -a cursor    # Cursornpx skills add JuliusBrussee/caveman -a windsurf  # Windsurfnpx skills add JuliusBrussee/caveman -a github-copilot  # Copilot

激活方式也非常直观:

  • Claude Code / Codex:输入 /caveman
  • 自然语言触发:说 “talk like caveman”、”caveman mode”、”less tokens please”

RTK vs Caveman:两者有何区别?

说到 Token 优化工具,很多开发者还会想到另一个流行工具——RTK(Rust Token Killer),之前的文章也介绍过这个工具。两者虽然目标一致,但作用层面完全不同:

特性
RTK
Caveman
作用层面
输入端
输出端
优化对象
命令行操作
AI 回复内容
节省效果
60%-90%(命令 Token)
75%(输出 Token)+ 46%(输入 Token)
核心思路
让命令更高效
让回答更简洁

简而言之:RTK 负责”输入瘦身”,Caveman 负责”输出瘦身”。 两者并不冲突,完全可以配合使用,实现全方位的 Token 优化。

实际效果:到底能省多少?

根据官方数据,Caveman 的输出 Token 可节省约 百分之七十五,输入 Token(通过 caveman-compress)可节省约 百分之四十六

我们算一笔账:

  • 使用前
  • 一次会话输入 10,000 Token,输出 5,000 Token
  • 使用后
    输入变为 5,400 Token,输出变为 1,250 Token
  • 总计节省
    约 60% 的 Token 消耗

如果再配合 RTK 优化命令输入,效果会更加显著。对于每天使用 AI 编程助手的重度用户来说,这意味着每月可节省可观的 API 费用。

总结

Caveman 是一个简单但极其实用的 Token 优化工具。它通过让 AI 使用更简洁的语言风格,在保持技术准确性的前提下,大幅减少 Token 消耗。支持四十多种 AI 编程助手,提供多种强度级别和三个实用子技能,安装简单,开箱即用。

对于经常使用 AI 辅助编程的开发者来说,Caveman 是一款值得立刻尝试的”省钱利器”。


如果觉得有收获,欢迎点赞在看转发三连!关注公众号,获取更多 AI 编程工具和使用技巧。


本文参考了 Caveman 官方 GitHub 仓库(github.com/JuliusBrussee/caveman)和 OpenClaw API 文档。