AI大神Karpathy不写代码了,改用AI建第二大脑——普通人也能用
Andrej Karpathy 是 AI 领域公认的技术大牛,特斯拉 Autopilot 早期负责人,OpenAI 创始成员之一。
最近他分享了一个用法,和大多数人的用法不太一样。
▲ 第二大脑知识管理
不是让 AI 帮他写代码,是让 AI 帮他记东西。
发生了什么
Karpathy 在 GitHub 上发了一个很短的文本文件,内容是一个叫”LLM Wiki”的框架。
核心逻辑一句话:与其每次问 AI 问题时让它重新读你的原始文档,不如一次性建一个持久化的结构化知识库,让它永远记住。
他把这件事类比成一个软件工程的概念:编译。
你写代码的时候,编译器把源代码编译成机器能直接执行的格式。下次运行,不需要再编译一遍,直接执行就行。
LLM Wiki 的逻辑类似:你把知识”编译”成一个结构化的 Markdown 知识库,以后每次问 AI 问题,AI 直接从这个知识库里读,而不是每次都去网上搜一遍。
普通人能怎么用
这个方法用到的工具很简单:Obsidian(一个免费笔记软件)+ 任何主流 LLM。
步骤大概是这样:
第一步,在 Obsidian 里建一个笔记文件夹,把你工作中的项目背景、决策记录、关键联系人信息存进去,用 Markdown 格式。
第二步,选一段你认为最值得保留的内容,让 AI 先熟悉这个结构。
第三步,之后每次工作有新的重要信息,AI 自动帮你更新这个知识库,而不是每次重新开始。
听起来有点复杂,但有一个具体的场景我觉得大多数人马上能用:
你在做一个持续几个月的项目,项目里有大量的背景信息——为什么要做这个决定、当时讨论了几个方案、各方案的优劣是什么。以前这些东西都在你脑子里,或者散落在各种聊天记录和邮件里。
用这个方法,你把这些全部整理成一个 Markdown 文件,让 AI 记住这个项目的来龙去脉。下次你要向新同事介绍项目,或者自己要回顾当时的上下文,直接问 AI 就行。
RAG 之外的选择
技术圈子里有个概念叫 RAG(检索增强生成),大概是说你问 AI 问题,AI 先去搜相关的文档,再结合文档回答。
Karpathy 的方法本质上是 RAG 的另一种形态,但它解决了一个 RAG 没解决好的问题:每次都检索是低效的,你的信息应该被持久化地组织起来,AI 每次读的是”整理过的知识”,而不是”原始材料堆”。
这个区别在实际使用中感受差异很大。
这个方法最适合什么人
不是技术人员。恰恰是每天处理大量信息、但没有技术背景的普通职场人。
销售在跟进了大半年的客户,积累了大量的背景信息和决策过程。运营在执行一个跨部门项目,项目背景和进度在脑子里越来越满。创业者在做一个产品,用户的反馈、竞品的分析、自己踩过的坑,都是值得被记录的。
这些东西,以前要么记在脑子里,要么散落在各个角落,用的时候找不到。
现在可以让 AI 帮你统一管理。下次需要回顾,直接问 AI,它基于你的知识库回答,而不是基于当天的搜索结果。
夜雨聆风