乐于分享
好东西不私藏

AI大神Karpathy不写代码了,改用AI建第二大脑——普通人也能用

AI大神Karpathy不写代码了,改用AI建第二大脑——普通人也能用

Andrej Karpathy 是 AI 领域公认的技术大牛,特斯拉 Autopilot 早期负责人,OpenAI 创始成员之一。

最近他分享了一个用法,和大多数人的用法不太一样。

▲ 第二大脑知识管理

不是让 AI 帮他写代码,是让 AI 帮他记东西。

发生了什么

Karpathy 在 GitHub 上发了一个很短的文本文件,内容是一个叫”LLM Wiki”的框架。

核心逻辑一句话:与其每次问 AI 问题时让它重新读你的原始文档,不如一次性建一个持久化的结构化知识库,让它永远记住。

他把这件事类比成一个软件工程的概念:编译。

你写代码的时候,编译器把源代码编译成机器能直接执行的格式。下次运行,不需要再编译一遍,直接执行就行。

LLM Wiki 的逻辑类似:你把知识”编译”成一个结构化的 Markdown 知识库,以后每次问 AI 问题,AI 直接从这个知识库里读,而不是每次都去网上搜一遍。

普通人能怎么用

这个方法用到的工具很简单:Obsidian(一个免费笔记软件)+ 任何主流 LLM。

步骤大概是这样:

第一步,在 Obsidian 里建一个笔记文件夹,把你工作中的项目背景、决策记录、关键联系人信息存进去,用 Markdown 格式。

第二步,选一段你认为最值得保留的内容,让 AI 先熟悉这个结构。

第三步,之后每次工作有新的重要信息,AI 自动帮你更新这个知识库,而不是每次重新开始。

听起来有点复杂,但有一个具体的场景我觉得大多数人马上能用:

你在做一个持续几个月的项目,项目里有大量的背景信息——为什么要做这个决定、当时讨论了几个方案、各方案的优劣是什么。以前这些东西都在你脑子里,或者散落在各种聊天记录和邮件里。

用这个方法,你把这些全部整理成一个 Markdown 文件,让 AI 记住这个项目的来龙去脉。下次你要向新同事介绍项目,或者自己要回顾当时的上下文,直接问 AI 就行。

RAG 之外的选择

技术圈子里有个概念叫 RAG(检索增强生成),大概是说你问 AI 问题,AI 先去搜相关的文档,再结合文档回答。

Karpathy 的方法本质上是 RAG 的另一种形态,但它解决了一个 RAG 没解决好的问题:每次都检索是低效的,你的信息应该被持久化地组织起来,AI 每次读的是”整理过的知识”,而不是”原始材料堆”。

这个区别在实际使用中感受差异很大。

这个方法最适合什么人

不是技术人员。恰恰是每天处理大量信息、但没有技术背景的普通职场人。

销售在跟进了大半年的客户,积累了大量的背景信息和决策过程。运营在执行一个跨部门项目,项目背景和进度在脑子里越来越满。创业者在做一个产品,用户的反馈、竞品的分析、自己踩过的坑,都是值得被记录的。

这些东西,以前要么记在脑子里,要么散落在各个角落,用的时候找不到。

现在可以让 AI 帮你统一管理。下次需要回顾,直接问 AI,它基于你的知识库回答,而不是基于当天的搜索结果。