乐于分享
好东西不私藏

今早我在文档里写下一条担忧,下午AI用Karpathy 的方法自己解决了自己

今早我在文档里写下一条担忧,下午AI用Karpathy 的方法自己解决了自己

今早 11 点 46 分,我在一个 markdown 文档里写下了这么一句话。

不确定项 4,定期做 Lint 这件事我能不能坚持下来,我的 vault 上一次 git commit 是整整一个月前,这说明「定期维护」这个习惯我从来没真正建立起来过,需要靠机制,不能靠自觉。

下午 1 点 10 分,这句话自己被标上了绿色对勾,写着 ✅ 2026-04-17 解决。

解决它的不是我。

是我早上写下这句担忧的那个系统自己。

这事得从今早刷到的一条视频说起。朋友转来一条 98 秒的微信视频,有人在里面演示自己的 AI 知识库。屏幕上只剩两个文件夹,一个叫 raw,一个叫 wiki。他说,我把乱七八糟的 AI 资料都丢进 raw,然后 AI 自动整理成人物、企业、概念三个分类,想做个 PPT,一句话它直接从库里给我生成。

看着很酷。

但我心里隐隐觉得哪里不对。

我把视频转成文字,丢给 Claude,顺便问它,Karpathy 最近有没有讲过类似的方法。

然后我知道自己为什么觉得不对了。Karpathy 四月初在 GitHub 上发了一篇 gist,叫 LLM Knowledge Bases,系统讲了他自己的做法。

gist 第一句是这样的。

「我最近大部分 token 消耗已经不是用来写代码,是用来处理知识。」

这个信号很重。他是 OpenAI 创始团队之一,前特斯拉 AI 主管。他个人从写代码转向整理知识,这件事值得跟。

读完 gist 我意识到两件事。

第一件,视频里那位的方法骨架是对的,但缺了三根支柱。没有 log(时间轴),没有 Lint(定期体检),没有 schema(工作契约)。缺这三样,任何维基三个月就开始烂。

第二件更要命,这事不只是在讨论「用什么工具」。

大部分人理解 AI 知识库都是这个逻辑,我把文档丢给 AI,问它问题,它给我答案。这就是 RAG,检索增强生成。

Karpathy 直接把这条路否了。他说,LLM 在每次回答时都是从零重新发现知识,没有累积。

翻译过来是,RAG 每次查询都是一个不认识你的临时工,读完答完就忘,下次再来还是从零。

而他的方法叫 LLM Wiki。核心动作只有一个。素材一进来就让 AI 当场读懂、归类、写页面、建交叉链接。等你以后提问,AI 读的是它自己之前写过的结构化笔记,不是原文。

这是「查询时计算」和「摄入时计算」的分水岭。

一字之差,决定一切。前者是每次重来的临时工,后者是你的长期员工,它有记忆,有整理过的知识,有你的口味。

读到这里我已经坐不住了。

我决定今天就搭一个。

上午花了大概一个半小时把骨架搭起来。按 Karpathy 的规则分三层。raw 是原始素材(我的领地),wiki 是 AI 维护的知识层,schema 是给 AI 看的工作说明书。

第一个真实问题马上出来了。我的 Obsidian 库不是空的,里面已经有 42 篇笔记,按「周会记录、爆款分析、直播复盘」这些工作场景组织的。更关键是我有一个飞书机器人,每天自动把音频转录写进来。

如果我按 Karpathy 的方法重新归类成 entities、concepts、synthesis,飞书机器人的路径全会打烂。

这就是典型的理想方法论撞上真实工作流的时刻。

我跟 Claude 一起定了一条铁规矩。现有 7 个目录全部「只读」,LLM 永远不能改,不能加字,不能重命名,不能移动。新增的 wiki 是独立一层,它从工作层里读取,但永远不回写。

这个设计后来被我们叫做「双层结构」。你自己的工作流在下面继续跑,AI 的知识层在上面悬浮提炼,两层互不打架。

骨架搭完,下一步是往里面装第一个内容。

我问 Claude 一个问题。我们刚才这段讨论本身,是不是就该被记录进 wiki。

它引用 Karpathy 的原话回我。

「好的讨论答案应该回填成新的维基页面。让探索的结果沉淀下来,而不是消失在聊天记录里。」

我盯着这句话看了好几秒。

突然意识到一件事。

讨论结论,比外部素材更值钱。

为什么。三个原因。

你读的文章,一百万人也读过,信息是公共的。但你和 AI 来回追问五轮之后得到的结论,由你的困惑、你的上下文塑造,这是个人化的,不可复制的。

它还带着「推理过程」。不是「是什么」,是「为什么是这样」。推理过程才是可迁移、可在下一次讨论里复用的东西。

而且它是主动思考的产物,不是被动吸收。读一百篇文章,知识大部分过不了手,但跟 AI 认真吵过一次,那个主题就真进脑子了。

我当场让 Claude 把今天这段对话整理成一篇 synthesis,存进 wiki 的 synthesis 文件夹。

现在回到文章开头那条担忧。

在这篇 synthesis 的末尾,我按 Karpathy 的模板写了「不确定的地方」一节,里面放了 6 条今天我还没搞清楚、或者担忧但没验证的东西。

第 4 条就是那条。Lint 节奏能不能真的执行。

这条是我对自己的大实话。我太了解自己。一万次「这次我要坚持」最后都坚持不下来。所以我在文档里主动把这条记下来,提醒未来的自己。

写完大概 11 点 46 分。

然后我和 Claude 继续搭下一层。

自动化。

思路是写一个 Python 脚本,每月 1 号和 15 号早上 9 点,Windows 任务计划器自动跑它。脚本做四件事,扫描所有 synthesis 页的不确定项,检查失效链接,摘录最近两周日志,调本地的 Gemma 模型做语义 Lint。然后推送到企业微信群机器人。

过程踩了好几个坑。飞书长链接被代理挡住(花了半小时才发现是环境变量里的 HTTP_PROXY 在捣乱)。企微 webhook URL 第一次复制漏了一位(错误码 93000,invalid webhook url,看得我一愣)。markdown 长度超过了 4096 字节上限(Gemma 输出太啰嗦,重新约束提示词压到 300 字以内)。

花了差不多一个小时,链路跑通。

跑通那一刻我才反应过来。

我早上写下的那条「Lint 节奏靠不住」的担忧,下午已经被这个脚本自己闭环了。

我让 Claude 按规则去回填。它在原 synthesis 页的 4 号担忧下面,加了一段绿色对勾的说明。

✅ 2026-04-17 解决,同日完成自动化闭环,Windows 任务计划加企微推送加本地 Gemma,从「靠自觉」变成「系统触发」。

我盯着这段文字有点懵。

我在这个系统里写下的担忧,同一天被这个系统自己解决了。

这是今天的第一个鸡皮疙瘩时刻。

第二个来得更快。

自动化跑通的时候我手动触发了一次 Lint,验证链路。报告推到企微群,我点开看。

正常的四个区块,不确定项摘要、失效链接、最近日志、Gemma 语义分析。但最下面多了一个区块,标题是「可能已解决但未回填(冷 Resolve 候选)」。

里面写着。

「synthesis 第 3 条可能已被解决。证据,2026-04-17 13:00 的 init 日志,新建的 wiki_lint.py 脚本包含了失效链接扫描功能,直接解决了命名格式变化导致的链接失效风险。」

我回头翻第 3 条原文。飞书机器人改名的风险,如果未来命名格式变化,wiki 里所有链接会变 404,Lint 阶段要加一项「扫失效链接」。

Gemma 通过比对两段文字,自己发现了「担忧的那个东西 = 我刚建的那个功能」。

它提醒我回填。

我没告诉它这件事,它自己发现了。

这是今天的第二个鸡皮疙瘩时刻。

这个系统开始有自己的判断了。

到这时早上写下的 6 条不确定项,已经被系统自己闭环了两条。

第三件意外不太一样,是一个「教 AI 学我口味」的过程。

剩下的时间我让 AI 从我现有的 42 篇爆款分析里,提炼出博主(entity)和概念(concept),写进 wiki。

我挑了 5 篇试点。Claude 跑完一轮,交上来 5 个博主 entity 和 4 个概念。

我看了一眼就说,土木 AI 这个博主不要建 entity,他只有 2 篇,都是 Claude Code 工具教程。

然后顺手定了一条规则。默认 3 篇原文才能建 entity。

Claude 按我的话清理。我又看剩下 4 个 entity 说,其实这 4 个也都只 1 篇,除了 dontbesilent 我确定想追,其他 3 个都删。

规则进一步收紧。Entity 只在两种情况下建。第一,我明确说「这个人值得追」。第二,知识库里有 3 篇以上该人的原文。没有第三种例外,哪怕他提出多牛的观点,定义了多少概念,达不到这两条都不建。

Claude 按新规则重写 dontbesilent 的页面。新模板加了 5 个节,其中一节叫「选题策略」。我看了一眼它写的。

打破祛魅与神化,用反向断言制造冲击;历史类比降维;实战案例背书;具体方法论拆解。

我说,这不是选题策略。这是表达技巧。

选题策略应该回答「他选什么题来拍」,不是「他怎么讲这个题」。

Claude 当场改了。重写成,他选「当前正在被热议的 AI 话题」但做反向解构,选题都围绕一个主题簇叫「人机协作方法论」,不做纯工具教程,不追一次性热点。

对了。

我还让它建了一个金句库,把 5 篇里的 15 条金句分类存进去。

我看完又说,这 15 条里大半不是金句。「别再被 X 劝退了」是钩子句。「新疆两毛钱的电变成 400 块」是事实陈述。真金句应该是能脱离上下文独立引用、10 字以内、有通用迁移性的那种。

筛选可以再严格一些。

Claude 砍到 4 条真金句。

AI 不是新范式,是 1960s 分工模式的低成本实现(dontbesilent)。

认知决定赚钱的上限(好运小刘)。

一口鸡吃不成胖子,别着急(柱子哥)。

他们刚开始做,你就也知道了(好运小刘)。

剩下的移到另一个区,叫「可复用结构模板」。比如「X 不是 A,是 B 的 C」「别再被 X 劝退了」「X 决定 Y 的上限」。

这两者很不一样。金句是具体的原话,可以直接抄来用。结构模板是句式骨架,必须替换主题词才能用。混在一起价值就稀释了。

校准到这里,Claude 把整个过程总结成一条方法论,主动写进了日志。

「今天踩的两个坑本质是同一件事。把『技巧』当成了『策略』或『内容』。表达技巧不是选题策略,句式模板不是金句,它们价值都不低但功能不同,不能混。」

这是今天的第三个鸡皮疙瘩时刻。

AI 在和我反复来回的争吵里,自己提炼出了一条可迁移的方法论。

然后它把这条方法论写成了日志。下次任何一个 LLM 打开这个 wiki,都会看到。相当于,今天这一下午的校准过程,被存成了长期记忆。

晚上 9 点,我坐在屏幕前看着这一整天。

11 次 git commit。

一个 wiki 骨架(带规则文件、日志、索引)。一篇 synthesis(今天这段讨论本身)。一个 entity(我明确想追的博主)。5 个概念(含金句库)。一条自动化 Lint 流水线(每月 1 号和 15 号早上 9 点)。一套校准过的、合我口味的规则。

还有今天写下的 6 条担忧里,3 条被系统自己闭环了。

剩下 3 条都是条件等待型。等 wiki 长到 100 页我再看 Obsidian 的性能。等存满 10 条 synthesis 我再复盘筛选标准。等 3 个月、6 个月、12 个月我再回看 Karpathy 的方法有没有过时。

下个月 1 号早上 9 点,我手机上会自动收到第一条企微推送。我甚至不需要记得今天发生过这件事。

今天之前,我的知识管理是这样的。刷到好东西收藏一下,偶尔在 Obsidian 里写一段,三周后忘了自己写过什么。

今天之后,这些东西被这个系统吃进去、消化掉、按我的口味归类、在我没想起来的时候主动提醒我。

它不是一堆文件了。

是一个活的小系统。

如果要从这一天抽出三句最硬的东西留给屏幕前的你,是这三句。

第一,AI 时代的知识管理,既不是 Notion 手工整理(倦怠死),也不是 RAG 向量库(每次从零死)。是让 AI 在摄入时就把知识消化掉,一次消化,长期可用。

第二,你和 AI 讨论出的结论,比你读的任何外部文章都值钱,因为那是你专属的思维轨迹,别人偷不走。但大部分人放任它消失在聊天记录里,这是最大的知识浪费。

第三,靠自觉维护是最不可靠的。与其相信未来的自己会坚持,不如今天就让系统替你记得。

Karpathy 在 gist 里有一句话。

「人类会放弃维基,因为维护成本的增长比价值增长得快。但 LLM 不会感到无聊。」

我今天真正理解了这句话的分量。

组织级的记忆,终于可以被一个个体独占。

以上,既然看到这里了,如果觉得不错,随手点个赞,如果想第一时间收到推送,也可以给我个星标⭐~

谢谢你看我的文章,我们,下次再见。