乐于分享
好东西不私藏

Claude Code源码泄露了,我才发现AI编程工具水这么深

Claude Code源码泄露了,我才发现AI编程工具水这么深

上周,AI圈出了一个说大不大、说小不小的新闻:Anthropic的明星产品Claude Code,51万行源代码被人从npm包里扒了出来。

技术圈炸锅了两天,然后迅速安静了。

大多数人的反应是:”哦,泄露了。”然后继续干活。

说实话,我也是这个反应。但静下来一想——51万行代码,这个数字本身就是一个信息量巨大的注脚。

51万行代码背后,是AI编程工具远比想象中更复杂。

之前我们总觉得AI编程就是”输入 prompt,输出代码”,但Claude Code这次泄露告诉我们,它的架构里包含了多智能体系统、自主守护进程等我们在产品介绍里从没见过的词汇。

简单说,它不是一个人在干活,是一群”分身”在协同。有的负责理解需求,有的负责写代码,有的负责检查错误——这套架构普通人用起来感知不强,但它决定了AI编程工具能不能真正hold住复杂项目。

这就牵扯出一个对普通人更实用的问题:既然连Anthropic这种最顶尖的AI公司都会犯”把源码打包进npm”这种低级错误,我们对AI工具的信任应该建立在哪里?

我的答案就一句:信任流程,不信任工具。

什么意思?

我上周用它写一个数据清洗脚本,运行完我老老实实把输出读了一遍,确认逻辑没问题才交给下一步。这不是不信任它,这是对自己的输出负责。

Claude Code源码泄露这个事件,真正值得普通人关注的不在于Anthropic丢没丢人,而在于——当我们越来越依赖AI工具处理重要任务的时候,我们有没有建立一套”让AI对自己的输出负责”的机制?

很多人在这一步是空白的。扔给AI,收到答案,直接用,出问题就怪AI。

但这个锅AI不背。

用AI干活,信任它之前,先给它一个判断标准。

说个我自己的笨办法:每次交给AI一个任务之前,我会先想清楚”什么算做好了”,然后把这个标准告诉它。比如:”这脚本跑完之后,A列应该是日期格式,B列是数字,C列如果有空值要标记为N/A。”

这个动作,本质上不是在教AI做事,而是在建立一套验收协议。

工具越来越强,但这个协议得我们自己写。

[AI游牧人 · 保持好奇,持续探索]

AI游牧人 · 保持好奇,持续探索