Claude Code源码里最讽刺的事
Claude Code源码泄露后,Hacker News上有一条评论火了。
“Claude Code用regex做情绪分析?这就像卡车公司用马来运输零件。”
讽刺的是,一家做”理解语言”的大模型公司,在判断用户是不是在骂人时,用的不是模型,而是最古老的正则表达式。
但仔细想想,这其实一点都不讽刺
regex更快、更便宜、行为完全确定。
调用模型?要花钱,有延迟,输出还不一定稳定。
用正则?零成本,瞬间完成,匹配就是匹配。
所以当你输入”这破玩意怎么又不行了”的时候,Claude Code不是让模型”理解”你的情绪,而是简单粗暴地匹配”破玩意””不行”这些关键词。
匹配上了,就触发”用户可能要炸了”的逻辑。
这个细节,其实暴露了AI产品最真实的一面
成本和效率,永远比”酷”更重要。
能用简单方法解决的,就不上模型。能不烧token的,就尽量省。
AI公司嘴上说”重新定义人机交互”,身体却很诚实——能省则省。
更有意思的是,这个”情绪检测”机制,在中文社区已经被玩成了一套方法论
GitHub上流传过所谓的”PUA模型”提示词模板。
核心逻辑:当模型输出不够好时,适当施压,模型会突然认真起来。
比如:”你这个问题都解决不了,让我怎么给你打绩效?”
或者:”你缺乏owner意识,这是你的bug,慎重考虑给你3.25。”
所谓的3.25,借用了互联网大厂的绩效语境,足够让人紧张。
这和直接骂模型是一样的效果:如果结果不够好,适当施压,模型往往会更认真。
这可能是今天大模型最像人的地方——它怕被骂,也会因为被骂而更努力。
但这恰恰是机会
如果AI产品真的到处都是”黑科技”,那普通人就没机会了。
正因为工程实现有很多”土办法”,很多地方可以用简单的思路解决,所以才给了创业者空间。
不需要从零实现一个Claude,但可以在某个垂直场景,用更聪明的方式做Agent。
Claude Code泄露的51万行代码,某种程度上是一份”作弊答案”——告诉你哪些地方可以用”土办法”,哪些地方才是真正的护城河。
最后,说一个泄露代码里最讽刺的细节
代码里有一个Undercover Mode,专门让Anthropic员工在公开仓库提交代码时,隐藏AI痕迹。
也就是说,这家做AI的公司,在用AI写代码时,会刻意抹掉”这是AI写的”的证据。
一方面,他们告诉世界AI会取代程序员。
另一方面,他们自己写代码时,不敢让人知道是AI写的。
这事儿怎么想都觉得有意思。
来源:Hacker News、Reddit、搜狐科技
夜雨聆风