少说废话省75%:一个“原始人”插件让AI编程成本暴降
一个叫Caveman的Claude Code插件在Hacker News上拿到649票。它做的事情极其简单——让AI说话像个原始人。结果?Token消耗降了75%,代码质量不降反升。这不是玩笑,这是2026年AI编程领域最反直觉的发现之一。
一、”Happy to help”是怎么吃掉你钱包的
如果你用过Claude Code或者任何AI编程助手,你一定见过这种回复:
“Sure! I’d be happy to help you with that. The issue you’re experiencing is most likely caused by your authentication middleware not properly validating the token expiry. Let me take a look and suggest a fix.”
这段话有多少是废话?”Sure! I’d be happy to help you with that”——8个token,零信息量。”The issue you’re experiencing is most likely caused by”——又是7个token的缓冲词。一个简单的auth bug修复,正常模式要704个token,Caveman模式只要121个。
Caveman怎么说同样的事?
“Bug in auth middleware. Token expiry check use < not <=. Fix:”
同样的修复。同样的准确率。83%的token节省。
75%
平均token节省率

二、Benchmark实测:22%到87%的节省区间
Caveman作者Julius Brussee对10个常见编程任务做了实测。数据很说明问题:
解释React重渲染Bug:正常1180 token → Caveman 159 token,省87%。搭建PostgreSQL连接池:2347 → 380,省84%。实现React Error Boundary:3454 → 456,省87%。
最差的情况是”重构callback为async/await”,只省了22%。原因很简单——这种任务本身代码占比高,可压缩的废话少。
10个任务平均下来:正常模式1214 token,Caveman模式294 token,平均省65%。
关键细节:Caveman只压缩输出token,不碰思考/推理token。用作者的话说:”Caveman make mouth smaller, not brain smaller.” 你的AI照样深度思考,只是不再用20个词说一句”让我看看”。

三、学术论文撑腰:说少点,答对率反而高26%
这不只是一个GitHub上的搞笑项目。2026年3月的一篇arXiv论文《Brevity Constraints Reverse Performance Hierarchies in Language Models》给出了硬数据:限制大模型简短回答,在某些benchmark上准确率反而提高了26个百分点,甚至完全颠覆了模型性能排名。
为什么?因为冗长的回答给了模型更多”编造”的空间。当你强制它精简,它反而被迫更精确。这跟人类写作是一个道理——删掉所有形容词,剩下的每个词都必须准确。
HN讨论区里一位用户说得好:”Caveman模式对我最大的价值不是省钱,是让回答变得清晰。原始人子弹头列表剥掉了所有bullshit,有时候反而让我看到之前没注意到的东西。”
四、算一笔账:每月能省多少
Claude Sonnet 4的输出token价格是$15/百万token。假设你是重度Claude Code用户,每天产生10万输出token:
正常模式:10万 × 30天 × $15/百万 = $45/月
Caveman模式(省65%):3.5万 × 30天 × $15/百万 = $15.75/月
每月节省约$29,一年省$350。对个人开发者来说不算大数字,但对企业——如果100个开发者都用,一年省$35,000。

五、安装方法和注意事项
一行命令安装:npx skills add JuliusBrussee/caveman
使用时输入 /caveman 激活,normal mode 退出。Caveman不影响代码输出——它只精简解释文字,代码块照常输出完整语法。技术术语也保持不变:polymorphism还是polymorphism,不会被简化成”big word thing”。
注意:Skill本身要消耗一定context token(加载元数据)。作者承认目前的”75%节省”数据来自初步测试而非严格benchmark,正在做更完善的评估。
编辑判断
Caveman揭示了一个AI行业不愿面对的事实:大模型产出的大部分文字,是在为”显得专业”而非”传递信息”服务。那些”I’d be happy to help”、”It’s worth noting that”、”Let me explain”——全是为了让你觉得AI很礼貌、很全面的表演。去掉这些表演,AI反而更有用。这对所有大模型公司都是一记警钟:用户付钱买的是答案,不是客套话。
夜雨聆风