👾 Satarday📡 AI:99%
Gogo
Markdown 的复兴:AI 时代的知识管理革命
BUILDING WITH AI & CATS
Markdown 大家用起来觉得怎么样?
这周在 Claude Code 里调一个项目,随口打了句“帮我看看之前关于这个的笔记”。它翻了一圈我的文件夹,三秒钟拎出来两条我自己都忘了的记录,还把它们之间的关联讲清楚了。
这就是 markdown 带来潜在的爽点。
不是因为 AI 多厉害,而是突然意识到——它之所以能干这事,纯粹是因为我的笔记是一堆 .md 文件,躺在一个本地文件夹里。就这么简单。

如果这些东西存在飞书里,AI 要走 API、配认证、过 MCP,每多一层就多一层出问题的可能。而 Markdown 文件夹?告诉它路径,它直接读。零配置,零延迟。
在 AI 时代,“你的数据能不能被 AI 直接碰到”,变成了最重要的一个判断标准。
这不是 Markdown 有什么光环。GPT、Claude、Gemini,训练数据里全是 .md 文件——GitHub 的 README、技术文档、博客。Markdown 对大模型来说不是需要“解析”的格式,是它最自然的表达方式。一个 2004 年诞生的纯文本格式,没公司运营,没商业模式,语法规范都没统一,结果成了 AI 的母语。挺荒诞的,但事实就是这样。

很多人的笔记系统死在“整理”上。记了一条,然后开始纠结:放哪个文件夹?打什么标签?和之前哪条有关?这个过程消耗的心智能量比记录本身还大。记了两周,发现归类比写还累,然后就不记了。
现在这个环节可以被ai agent 给干掉。
你在 CLAUDE.md 里写一行 笔记在 ~/my-notes/ 目录下,下次跟 Claude Code 说“帮我看看之前关于投资的笔记”,它就去搜、去读、去总结。200K 的 context window 装 15 万字中文,大概三分之一本《三体》。你的个人笔记库,大概率装得下。
推特上的 ai 名人Karpathy 的做法更极端——一个 Apple Notes 文件,新内容往顶部追加,找东西 Ctrl+F。他的理由很实在:记录的心理门槛越低,越能坚持。复杂的分类体系,最后都因为维护成本太高而荒废。
你不需要一开始就建出完美的知识体系。你只需要一个足够低摩擦的入口。
先建个文件夹,叫 my-brain 也好叫什么也好,往里面扔 .md 文件。读了篇好文章,建个 reading-notes.md。工作上有灵感,建个 project-ideas.md。不用想分类,不用想结构,先记再说。

真正让我爽的其实是这一个改变~
以前记笔记:想到一个东西 → 打开软件 → 找笔记本 → 组织语言 → 打标签。五步,每步都有摩擦。
现在:对着 AI 说一句话(对,就是用语音)。
“帮我记一下,今天和老王聊了个思路,用 RSI 背离做日线级别的入场信号,配合成交量过滤假突破。”
你说,AI 写。嘴炮是输入,结构化的 .md 文件是输出。它还会自动把相关笔记串起来——今天聊到某个项目,日志里标注“这条和之前某某笔记有关”。时间一长,文件夹里不是一堆碎片,是一张有脉络的网。

然后更有意思的事情发生了。你三个月前记的一段读书心得,和上周写的一条工作复盘,可能藏着某种你自己都没意识到的关联。你不会翻到,因为它们躺在两个不同的文件里。但 AI 会翻,而且翻得比你快、比你全。
比如你是个产品经理,笔记里有用户调研、竞品分析、育儿日记、读书摘抄。AI 扫一遍,可能告诉你:你在育儿日记里反复提到“小孩不愿意按我说的做,但让他自己选反而配合度高”,和用户调研里“用户讨厌强制引导,但有限选项时转化率最高”——本质上是同一件事。
你以为自己在记流水账,其实你在喂养一个越来越懂你的系统。

每次聊到这儿都有人提 RAG 和向量存储。企业级场景,几十万篇文档,当然需要。但个人笔记?认真算算你一辈子能写多少字。Claude Code 的 context window 加上按需加载机制,处理个人规模的知识库绰绰有余。
复杂度是有代价的。每多一层技术栈,多一个出问题的环节,多一个让你放弃的理由。Karpathy 用一个纯文本文件记所有东西,Anthropic 用 CLAUDE.md + memory/ 目录做记忆系统。这些最聪明的人,选的都是最简单的方案。
技术选型不是比谁的 stack 高级,是比谁更理解问题的边界。

今天就可以做一件事:在电脑上建个文件夹,打开任何文本编辑器,写几行字,存成 .md。
工具后面慢慢加。先把东西记下来。
李面条的实验室
由 AI 和猫猫共同构建
夜雨聆风