逼AI当山顶洞人!Claude防话痨插件爆火,网友:受够了AI废话

来源:新智元
编辑:硕博生活圈

最近,一个叫「caveman」(穴居人)的Claude Code插件,在Hacker News炸了。
先看一张图。

从这条GitHub star增长曲线来看,「JuliusBrussee/caveman」在最初很长一段时间里几乎只是缓慢爬升,随后陡然上扬:
短短半天左右,star数从几十一路冲到500,目前已冲破2w!

「穴居人」省Token技能爆红!
caveman一夜爆火背后,其实是一次典型的社区情绪共振。
它意味着「AI Yap(废话连篇)」,这个看上去很小、却让无数人早已破防的痛点,再次被人精准地捅破了。
很快就有网友把caveman称作「2026年最厉害的提示词技巧」,称它能够砍掉浪费在「我很乐意帮你」这种礼貌和铺垫上的token。

这个插件干的事其实很简单:让AI agent像洞穴人一样说话。

删掉「the」「please」「thank you」……删掉一切不影响技术含义、却不断吞噬token的「人类客套」。

https://github.com/JuliusBrussee/caveman
项目出自开发者Julius Brussee之手,GitHub仓库名为「JuliusBrussee/caveman」。
Julius在README里抛出的核心问题也非常直接:为什么少量token能说清楚的事,要用那么多token去说?

这是一款同时适配「Claude Code」和「Codex」的技能/插件。
它的核心思路是让智能体像「原始人」一样开口,在不牺牲技术准确性的前提下,把输出压缩到极致,并声称可将token消耗降低约75%。

问题也随之而来:删掉冠词和礼貌用语,真的就能为用户省掉四分之三的钱吗?

caveman到底怎么「省」的?
打开它的核心文件SKILL.md,内容确实不长。

https://raw.githubusercontent.com/JuliusBrussee/caveman/main/skills/caveman/SKILL.md
文件frontmatter直接把它定义成「Ultra-compressed communication mode」(超压缩通信模式)。
并写明:
通过像洞穴人一样说话,在保持技术准确性的前提下,目标是把token用量压到更低。
当用户说出「caveman mode」「talk like caveman」「use caveman」「less tokens」「be brief」,或调用「/caveman」时启用。
当用户明确要求更高token效率时,也可自动触发。
它节省「token」的规则也非常简单粗暴:别用冠词,别说废话,别客气;技术术语和代码块保留,其他能砍就砍。
删除以下内容:冠词、语气填充词、客套话、犹豫性表达。
允许使用短句、碎片句。
优先使用更短的同义词,比如说「大」而不是「庞大」,说「修」而不是「实施一个解决方案」。
技术术语必须保持精确。
代码块不改。
报错信息必须原样引用。
推荐句式:[问题][动作][原因]。[下一步]。
比如,不要这样写:「当然!我很乐意帮你。你遇到的问题,很可能是由……引起的……」
而是要这样写:「Bug在认证中间件。Token过期判断用了<,没用<=。改这里:」
它支持三档强度级别:lite、full(默认)、ultra。
-
lite:去掉填充词和犹豫表达。保留完整句子和正常书面感。专业、简洁;
-
full:进一步压缩表达,可省略部分虚词,允许碎片句,使用短词替代。典型caveman风格;
-
ultra:大量缩写,如DB、auth、config、req、res、fn、impl;尽量去掉连接词;用箭头表达因果,如「X→Y」;能用一个词说明,就不用两个词。
举个例子:
lite:「连接池会复用已经打开的数据库连接,而不是每次请求都新建一个,从而避免重复握手开销。」
full:「连接池复用已打开的DB连接。不是每个请求都新建。省掉握手开销。」
ultra:「连接池=复用DB连接。跳过握手→高并发更快。」
当然,遇到安全警告、不可逆操作确认、多步骤流程、或用户明显已经困惑时,清晰表达仍然优先。这也是SKILL.md里明确写出的例外逻辑。
没有模型架构改动,没有推理机制层面的压缩,caveman的本质就是一条精心编写的system prompt,约束的是AI的输出风格。
更关键的一点:作者Julius Brussee本人在HN讨论帖里主动澄清了,这个skill不针对hidden reasoning tokens和thinking tokens。

模型在后台「想」的过程并不会因为caveman自动变短,它主要压缩的是最后说出来的那部分。
Anthropic官方文档也提到,skills的名称和描述本身会占用上下文预算。
换句话说,加载caveman这个skill本身就要消耗token。
所以端到端的真实成本节省,未必等于README里那个醒目的「75%」。
因此,caveman很可能显著压缩了可见输出长度,但这不应被直接理解为同等比例的总成本下降。

从仓库公开内容看,作者确实提供了benchmark脚本,也在README里列出了若干任务的token对比,区间从22%到87%,平均65%。
但截至目前,公开仓库里能直接看到的是测试脚本和示例表格;外界仍难以仅凭仓库当前内容完整复核每一项结果的复现实验链条。

作者在HN帖子里表示:这只是初步测试,不是严格的基准测试。
不过,「简洁表达是否会伤害AI性能」这个问题,学术界确实有人研究过。

https://arxiv.org/pdf/2401.05618
2024年的论文《The Benefits of a Concise Chain of Thought on Problem-Solving in Large Language Models》显示:
当研究者要求模型使用更简洁的推理链时,GPT-3.5和GPT-4的平均回答长度下降了48.70%,而整体解题能力几乎没有明显下降;但在数学题上,GPT-3.5的表现平均下降了27.69%。
2026年的论文《Brevity Constraints Reverse Performance Hierarchies in Language Models》则更进一步指出:
在部分基准上,对大模型加入简洁约束,准确率可提升26个百分点,甚至可能改变不同规模模型之间原本的表现排序。

https://arxiv.org/pdf/2604.00025
以上两篇论文,为「简洁未必伤性能」提供了研究背景。
但必须说清楚:它们研究的是brevity作为通用提示策略的效果,不是对caveman这个GitHub仓库的专项评测。
README引用这些研究,最多只能说明它的思路并非毫无理论背景,不能直接当作对项目自身效果的严格验证。


第一时间获取干货资讯
本硕博学习工作生活群
加入

本文来源:除特别注明原创授权转载文章外,其他文章均为转载,版权归原作者或平台所有,仅用于学术分享。如有侵权请联系小编删除,谢谢。编辑:公众号硕博生活圈
夜雨聆风