为什么AI偏爱Markdown?
如果你用过 Claude Code 或 OpenClaw,一定会注意到一个现象:AI 输出的文件,几乎清一色是 .md(Markdown)格式。常用的配置文件:claude.md、soul.md、agents.md、memory.md、skill.md,全是 Markdown。
为什么呢?
我把这个问题分别问了豆包、Claude 和 Gemini,它们的回答大致归为三个原因:
1. 天生母语。 AI 的训练集(GitHub、Stack Overflow、技术文档)里充斥着 Markdown。对模型而言,这是它在进化过程中最熟悉的原生语言。
2. 结构语义清晰。 Markdown 在同样的字符量下携带了层级和语义信息,模型能更清楚地理解内容的重点和结构,而不是把所有文字当成一坨平铺的文本处理。
3. RLHF 的强化。 在人类反馈强化学习阶段,标注员普遍认为带有标题、列表、代码块的回答比纯文本”更好”——看起来更专业、更易读。模型因此学到:用 Markdown = 获得更高评分。
所以模型偏好 Markdown,是训练数据和训练方式共同决定的。
这个逻辑有一个更重要的延伸:既然 Markdown 是 AI 的母语,在 AI 时代,我们应该主动用这种语言和它交互。
分享一个我正在实践的做法:用 MD 文档构建个人的上下文仓库。
工具组合:Obsidian + Claude Code(或小龙虾)。
Obsidian 是一款本地化的 Markdown 笔记软件,所有笔记以 .md 格式存在你自己的电脑上。我用它来存工作方法论、项目资料、灵感记录——所有你希望 AI 长期记住的东西,都沉淀在这里。
通过配置 MCP或 Skill,可以把 Obsidian 和 AI 工具打通。打通之后能做两件事:
一是读取。AI 在和你交互时,可以直接调取你 Obsidian 里的文档作为上下文,带着你完整的工作背景和个人偏好来响应你,而不是每次从零开始。
二是写入。这是更有意思的部分——当你和 AI 产生了有价值的讨论、新的洞察、或者一个值得沉淀的方案,可以直接让它写回你的 Obsidian,更新你的知识库。你的上下文仓库会随着每次交互持续生长。
举个例子:我在 Obsidian 里存了一份”HR 工作方法论”的 MD 文档,里面包含公司的四步法框架、蓝白领管理的核心差异、常见场景的处理原则。每次让 AI 帮我设计 HR 方案,把这份文档挂进去,它输出的就不是通用建议,而是真正贴合我工作处境的东西。
时间越长,这个仓库越有价值。AI 越用越懂你,你的知识也在这个过程里被持续整理和积累。
决定 AI 好不好用,本质上只有两个变量:模型能力和上下文质量。前者你控制不了,后者你可以主动建设。
当下模型的上下文窗口已达百万级别,而且还在持续变大。能够预加载的上下文越来越多,用 AI 的差距将不再只体现在提问技巧好不好、装了哪些 skill,而是在于:
你能提供给模型的上下文有多少、有多准。
夜雨聆风