乐于分享
好东西不私藏

给你的AI生产力系统安装上复利飞轮

给你的AI生产力系统安装上复利飞轮

从一个终端 Tab 说起

今天我让 AI 帮我创建一个 Windows Terminal 的自定义 profile——一个 SSH 到远程 lab 机器的快捷 tab。

我说的是:”加个 SSH profile 到 lab-40。”

AI 没有问我 IP 是什么、用什么用户名、SSH key 在哪。它直接去 labs/_index.md 查到了 lab-40 的文档,从里面提取了连接信息,然后一条命令写入了 Windows Terminal 的 settings.json。

10 秒完成。

这件事本身不值得写一篇文章。引起我注意的是:”是什么让我感觉到当前的工作系统越来越好用了?”

答案是:因为我的工作系统里已经有了这些数据,而且数据之间有关联。lab 机器的 SSH 信息在 lab doc 里,lab doc 在 labs/ 目录下,labs/_index.md 是索引。AI 创建新 skill 的时候扫了一圈现有的数据源,发现了这个关联,就自动写进了集成逻辑。

这就是”越用越好”的一个微小切面。所谓好用,就是指用更少的认知负担和操作成本,更可靠地达成目标,在有效性(effectiveness)、效率(efficiency)、满意度(satisfaction)这三方面都做到上乘。

于是我就将思考稍稍延展一下:就以我的工作系统为例,到底是哪些机制保障了系统底线,从而可以越用越好呢?

机制一:结构化的数据约定

关联能发生的前提是:数据有固定的位置和格式。

我的系统里,每类信息都有明确的存放位置:

labs/_index.md          → 所有 lab 机器的索引
customers/_index.md     → 所有客户的 pipeline
partners/_index.md      → 所有伙伴的赋能状态
people/_index.md        → 所有联系人
dashboard.md            → 所有待办事项

每个 lab doc 的 Access Information 表格格式是固定的:OAM IP、SSH User、SSH Key、Sudo Password。每个客户 profile 的结构是固定的:基本信息、技术环境、关键联系人。

这意味着 AI 不需要”理解”你的文件内容,它只需要知道去哪里找、找什么格式

回到开头的例子:AI 创建 console-profile skill 时,它扫到 labs/ 目录下有一批 lab doc,每个 doc 里有 SSH 连接信息,格式统一。新 skill 的 SSH 模式恰好需要同样的信息。模式匹配成功,关联建立。

如果 lab 信息散落在随机的笔记、聊天记录、脑子里呢?AI 扫不到,关联不会发生。

结构化不是为了好看,是为了让关联成为可能。

这也是很多人用 AI 工具时的第一个瓶颈:信息散落在 Notion、微信、邮件、脑子里,AI 能接触到的只是碎片。你让它”帮我整理一下”,它只能整理它看得到的那部分。

机制二:强制检查点

有了结构化数据,下一个问题是:谁来触发关联?

如果靠 AI “自觉”去扫描关联,那就是靠运气。有时候它会想到,有时候不会。

我的做法是把关联动作编码成强制检查点。举几个例子:

处理任何材料时:必须执行 People Discovery Gate——从材料中识别人物,检查是否已在 people/_index.md 中,没有就新建。每次处理完必须汇报:”📇 People index: added X, updated Y”。

任何任务状态变更时:必须用关键词 grep 扫描全 dashboard,同步更新所有提到这个任务的地方。不是”建议更新”,是”必须更新”。

创建新 skill 时:必须扫描现有 skill 和数据源,检查是否有数据重叠。

这些检查点不是建议,是规则。AI 每次执行都会走这些路径,不依赖”这次状态好不好”或”有没有想起来”。

强制检查点把”应该做”变成了”每次都做”。

这和软件工程里的 CI/CD 是同一个思路:你不靠开发者记得跑测试,你把测试写进 pipeline,每次提交自动跑。质量不靠自觉,靠流程。

机制三:Skill 把流程固化成可执行的指令

检查点解决了”什么时候做”,skill 解决了”怎么做”。

以会议记录为例。我的 meeting-record skill 不是一个模糊的指导——”记得提取 action items 哦”——而是一个精确的执行序列:

Step 1: 确认会议类型和参会方
Step 2: 捕获会议内容
Step 3: 生成结构化纪要,保存到对应目录
Step 4: 提取 Action Items → 写入 dashboard → 更新 opportunity → 更新 partner status
Step 5: 更新相关文档(客户 profile、伙伴状态)
Step 6: 确认

Step 4 是关键——一次会议产生的信息,同时更新 3-5 个文档。不是因为 AI 特别聪明想到了要更新这些地方,而是 skill 里写死了这些步骤。

Skill 的价值不是”AI 能做这件事”,而是”AI 每次都以同样的质量做这件事”。

踩过的坑也会编码进 skill。比如我的 pptx skill 里有一条:PptxGenJS 的 shadow 对象会被 mutate,多个元素不能共享同一个 shadow 实例。这个坑我踩过一次,写进 skill 之后就再也不会踩第二次。

这就是”越用越好”的一个具体含义:系统的下限在持续抬高。 不是每次都靠运气产出好结果,而是最差的结果也不会太差。

机制四:数据密度的正反馈循环

前三个机制是基础设施。第四个机制才是”越用越好”的真正引擎。

让我用时间线来说明:

第 1 天:系统里只有模板和空目录。AI 能做的关联 = 0。每次操作都需要手动输入所有信息。

第 30 天labs/ 里有 5 个 lab doc,customers/ 里有 7 个客户,people/ 里有 30 个联系人,solutions/ 里有十几个技术方案。

这时候发生了什么?

  • 我说”加个 SSH profile 到 lab-40″→ AI 自动从 lab doc 读取连接信息,不用问我

  • 我说”准备下午和客户 A 的会议”→ AI 自动汇总客户 profile、上次会议纪要、相关商机状态、未完成的 action items

  • 我收到一封邮件提到某个人名 → AI 自动在 people/_index.md 里找到这个人的历史记录和关联项目

每新增一个数据节点,它和所有已有节点之间都可能产生关联。 5 个节点最多 10 条边,30 个节点最多 435 条边,100 个节点最多 4950 条边。关联的价值是超线性增长的。

这就是为什么系统在前两周感觉”也就那样”,但用了一两个月之后会有一个明显的拐点——不是系统变聪明了,是数据密度到了一个阈值,关联开始大量自动发生。

你每天往系统里喂的数据,不是在”记笔记”,是在给未来的自己减少手动输入。

这就是 Compounding Artifact(复利产物) 的含义:知识不是每次重新推导的,而是持续积累、持续关联、持续增值的。每一次信息进入系统,都让整个知识网络变得更密、更准、更有用。文档之间的连接和文档本身一样有价值——甚至更有价值,因为连接把孤立的信息点变成了可以推理的知识网络。

四个机制的关系

结构化约定(数据有固定位置和格式)
    ↓ 使得
强制检查点(每次都扫描关联)
    ↓ 能够
Skill 固化流程(精确执行,不靠记忆)
    ↓ 持续
喂入数据 → 数据密度增长 → 关联机会指数增长
    ↓ 反馈到
结构化约定(新数据按约定存放,进一步丰富网络)

这是一个飞轮。四个机制缺一不可:

  • 没有结构化约定 → 数据散落,AI 扫不到,关联无从发生

  • 没有强制检查点 → 关联靠运气,时有时无

  • 没有 Skill 固化 → 每次执行质量不稳定,踩过的坑会重复踩

  • 没有持续喂数据 → 网络稀疏,关联价值有限

一个反直觉的推论

很多人觉得 AI 工具的价值在于”AI 有多聪明”。模型越大、参数越多、推理越强,工具就越好用。

我的体会恰好相反:系统的价值主要不在 AI 的能力,而在你喂给它的数据和围绕数据建立的流程。

同样的 AI 模型,给它一个空的工作目录,它只能做通用的问答。给它一个运行了两个月、积累了几百个结构化文档的工作系统,它能做的事情完全不同——不是因为它变聪明了,而是因为它有了上下文。

这也意味着:你的工作系统是有护城河的。 不是技术护城河(别人也能搭同样的工具链),而是数据护城河。你积累的客户关系网络、技术方案库、踩坑记录、团队知识——这些是别人复制不了的。

换个 AI 模型?没关系,数据和流程还在。换个人来用这个系统?他能立刻获得你积累的所有上下文。这才是”越用越好”的终极含义:价值沉淀在系统里,不在任何单次对话里。

回到那个终端 Tab

开头那个 10 秒完成的操作,背后是:

  • lab-40 的 SSH 信息在两个月前就录入了系统(结构化约定)

  • AI 创建新 skill 时被要求扫描现有数据源(强制检查点)

  • console-profile skill 把”查 lab doc → 提取 SSH 信息 → 写入 settings.json”固化成了可重复的流程(Skill 固化)

  • 两个月的数据积累让 AI 有足够的上下文做自动关联(数据密度)

10 秒的背后是两个月的积累。但这两个月的积累不是刻意为之——它就是日常工作的副产品。每天用 AI 处理邮件、记录会议、管理任务,数据自然就积累了。

四个机制形成的飞轮一旦转起来,每一次日常操作都在给系统加速。你不需要专门留时间”维护系统”——工作本身就在喂养飞轮,飞轮反过来让工作越来越快。