我差点把 AI 用成了一个新型短视频
我最近发现一件有点危险的事。
我以为自己在使用 AI。
后来发现,很多时候,我只是在等它给我一个反馈。
一个新的角度。一句很聪明的话。一段看起来很懂我的总结。一个让我觉得“这个系统终于被我调好了”的瞬间。
那一刻很爽。
它不像刷短视频那么低级。它甚至看起来很高级。
我在研究工具。我在优化工作流。我在训练自己的外脑。我在构建一个长期系统。
这些话都没错。
但后来我意识到,真正危险的地方就在这里。
当一个东西披着“成长”“效率”“认知升级”的外衣时,我更容易放松警惕。
刷短视频的时候,我至少知道自己在浪费时间。
但调 AI 的时候,我很容易以为自己一直在进步。
*
我以前以为,AI 越懂我越好。
上下文越长越好。记忆越多越好。回复越贴合我越好。
它越能说出我心里的东西,我就越觉得这个系统有价值。
后来我发现,这里面有一个陷阱。
“被理解”本身,也是一种奖励。
尤其是当 AI 能快速给出回应、总结、安慰、判断、方案的时候,它很容易变成一台更高级的老虎机。
你投进去一个问题。
它吐出来一段反馈。
有时候平平无奇。有时候突然击中你。有时候让你觉得:对,就是这个。
于是你会忍不住再投一次。
再问一个问题。再调一个 prompt。再开一个任务。再让它总结一次你的人生、你的投资、你的情绪、你的系统。
看起来你在工作。
但身体很诚实。
你其实是在追那个“被击中”的瞬间。
*
这和短视频很像。
短视频的问题,不只是内容低级。
真正的问题是,它不断给你不确定奖励。
你不知道下一条会不会有趣。不知道下一个视频会不会让你爽。不知道再刷一下,会不会出现一个刚好击中你的东西。
AI 也一样。
你不知道下一次回答,会不会突然很聪明。不知道它会不会帮你总结出一个你从没想清楚的结构。不知道它会不会让你产生一种错觉:我好像又升级了。
这种感觉很容易上瘾。
因为它不像娱乐。它像学习。
不像逃避。它像建设。
不像浪费。它像生产力。
但如果一次对话结束后,没有留下任何文件、规则、行动、决策、复盘,只留下“刚才聊得很爽”,那它和短视频的区别就没有那么大。
只是信息密度更高一点。
*
后来我开始给自己设一个标准。
AI 的价值,不看它当场说得多漂亮。
看它有没有留下东西。
有没有沉淀到 Obsidian。有没有形成一条规则。有没有改掉一个流程。有没有生成一个可复用的模板。有没有帮助我做出一个更清醒的决策。有没有让我从情绪里退出来,回到现实行动。
如果没有,它就只是一次高级聊天。
高级聊天也不是不能有。
但不能骗自己说,那就是成长。
我最怕的不是 AI 没用。
我最怕的是,它太有用了,以至于我开始把“被 AI 回应”误认为“我已经行动”。
这其实是两回事。
理解不是行动。总结不是改变。被看见不是完成。
*
所以我现在更愿意把 AI 当成外脑,而不是聊天对象。
聊天对象追求即时反馈。外脑追求长期沉淀。
聊天对象让你多说几句。外脑让你少重复一次。
聊天对象让你感觉被理解。外脑让你下次更快进入状态。
聊天对象制造陪伴感。外脑制造可复用结构。
如果一个 Agent 真的有价值,它不应该让我更离不开它。
它应该让我少一点混乱,少一点重复,少一点临时起意。
它应该帮我把经验放到一个下次还能调用的地方。
对我来说,这个地方就是文件系统,是 Obsidian,是规则卡,是复盘,是流程。
不是某一次聊得很爽的对话窗口。
*
我现在对自己有一个很简单的要求:
凡是重要任务,必须留下产物。
一篇研究,要有索引。一次复盘,要有结论。一个交易规则,要能被下次调用。一次心理分析,要能沉淀成可验证的模式。一个工具流程,要能让未来的我少踩一次坑。
如果没有产物,就要警惕。
我可能不是在使用 AI。
我可能只是在用 AI 刷自己。
刷聪明感。刷被理解。刷控制感。刷“我正在变好”的幻觉。
这比刷短视频更隐蔽。
因为它看起来太正当了。
*
AI 当然会改变很多东西。
它会改变工作方式,改变研究方式,改变写作方式,也会改变每个人管理自己大脑的方式。
但越是强大的工具,越要警惕它变成新的刺激源。
不是所有高密度信息,都是认知升级。不是所有流畅对话,都是深度思考。不是所有被理解的瞬间,都会带来真实改变。
真正有价值的 AI,不是让我一次次感叹“它真懂我”。
而是帮我把混乱的经验,变成下次还能用的结构。
一个好的 Agent,不应该只是回答我。
它应该帮我少一点重复,少一点失控,少一点靠即时反馈续命。
它应该把我从老虎机前拉开,推回现实里。
去写文件。去做决策。去睡觉。去执行那条早就知道但一直没做的规则。
Agent 不是老虎机。
它是外脑。

夜雨聆风