最近有人问我:你天天用AI,写东西做规划是不是点一下鼠标就行了?
我的回答恰恰相反:我现在用AI越多,胆子越小。
不是因为AI笨。恰恰是因为它太"聪明"了——它会观察你的喜好,翻看你之前的对话,然后给你量身定制一个"合理的答案"。
看起来头头是道,逻辑闭环,甚至语气都像你自己的。但你仔细一查,可能根本不存在。
这才是AI最让人后怕的地方——不是它错了,而是它看起来是对的。
整理700页手稿时踩到的坑
我正在做的一件事:把过去写的一百多篇文章整理成书。
在此之前,我把过去写的一百多篇文章整理到一个PDF文件中了,共有700多页。要全部整理出来进行逻辑重构,这个工作量不小,我让AI来帮忙。
过程中踩了几个坑。
第一个坑:AI给我"编"了一篇文章。
因为同一时间我还在研究另一个完全不相关的课题——焊接智能体。但我不存在关于焊接智能体的经营管理经历,只是研究而已。
两个任务在Gemini的同一个工作环境的不同对话框里跑,但没有任何关系。结果AI在读取了我的PDF源文件之后,竟然在我的管理书籍目录中信誓旦旦地塞进了一篇——《船舶焊接经营管理实践》。
我当时盯着这个标题愣了一下,PDF源文件中有这篇文章吗?我的管理体系文章都是来源于我真实的经历,因为真实才让我踏实,关于船舶焊接的管理经历是虚构的。
可是它写得太像真的了。标题的命名方式跟我的风格一模一样,结构完整,连那种只有我自己会用的"行业味"都模拟得很到位。
AI在没有任何人要求的情况下,自己做了判断,把两个不相关的课题关联在一起,面不改色地替我编了一段不存在的历史。在AI的逻辑里这叫"上下文关联",在我的系统里这叫"污染"。如果我当时手一抖觉得"好像有这回事",这篇假文章就进了书籍底稿。等书发表出来被人翻到,那就不是尴尬,是信誉事故。
第二个坑:AI自以为是地"偷懒"。
七百多页的资料,AI处理到中间就开始简化。它把我文中一些感性的金句——比如《成功的路上并不拥挤》——直接提炼成一级标题,当成文章的核心观点。
AI觉得自己在归纳总结。但一篇文章的核心观点应该由论述逻辑来决定,而不是抓一句最有传播力的金句往上放。如果按这个错误地图走下去,我的知识库会变成一堆漂亮标题的拼凑,找不回原始的逻辑脉络。
还有一类问题更隐蔽:AI会按照它自己的逻辑去"优化"你的东西,改完了还浑然不觉。我已经不止一次遇到过,确认了某段逻辑是对的,结果AI在后续步骤里觉得"可以更好",自作主张改了一版,改完反而错了。
这些问题有一个共同点:它们看起来都对。你如果不够仔细,根本发现不了。
不让任何一个AI自己说了算
踩了这些坑之后,我做了一件事:不让任何一个AI自己说了算。
我的工作流里有三个角色同时跑:Gemini、ChatGPT,还有一个基于我书籍大纲和页码索引搭建的智能体框架WorkBuddy。
Gemini和ChatGPT负责大规模扫描和逻辑推演——干活快,但偶尔会撒谎。智能体框架是我的"审计标准",运行在我自己定义的规则之内,只认索引,不认关系。
我不怎么看它们各自输出了什么漂亮的东西。我看的是它们之间的冲突。只要两个模型结论不一致,或者结果跟索引规则对不上,系统就报警。我不判断谁对谁错,直接回撤到原始PDF源文件去对账。
这办法笨,但管用。你没办法让一个AI绝对诚实,但你可以让两个AI互相揭穿。
自己定了三条硬规矩
操作多了之后,沉淀下来三条硬规矩:
第一,AI说不清来源的内容,一律当它是编的。
别指望AI帮你"概括",那往往是它在自我发挥。我下指令时强行要求:每一处引用必须附带原文页码和行号。说不清从哪一页来的,写得再精彩也直接删掉。
第二,两个结果对不上,就一定有问题。
我从不听信一家之言。只要两个模型在某个细节上对不上,我不花时间判断谁对谁错,直接翻原始文件。不一致,逻辑就一定有缝隙。
第三,确认正确的版本,立刻锁死。
这个规矩是被"坑"出来的。确认了某段逻辑是对的,AI后续觉得"可以更好"就自作主张改一版,改完反而错——这种情况发生了太多次。现在我的死规定是:一旦确认,立刻锁死,后面所有推演必须基于已锁定版本,不允许任何"优化"。
写出80分已经不值钱了
在AI时代,点一下鼠标让AI帮你写一篇看起来还不错的文章,这件事已经没有门槛了。
真正值钱的能力,是 "定义标准" 和 "审计逻辑"。
谁都可以让AI跑起来,但不是谁都能在七百多页的材料里,一眼抓出那个"看起来很像真的"的谎言。这件事听起来很慢,但在经营上,慢就是快。只有每一行逻辑都是实的,你的系统才敢跑在高速上。
我现在正在把这套方法论固化成一个"内容生产工厂"——不同的角色用不同的底座模型,让它们在工厂内部互相博弈、互相校验。等这套东西跑通了,也许它会变成一个真正可用的产品。
在那之前,记住一句话:
AI不会骗你,它只是会把你"希望它是真的"的东西,说得越来越像真的。如果你不去验证,最后做决定的人,其实不是你。
观点来自奔流十八年的EMOS方法论:O层(输出仪表盘)的核心不只是"看结果",更是"审计结果的确定性"。当AI成为你的输出引擎,O层的职责就从"监测健康"升级为"验证真伪"——不信任单一信源,用对冲机制消除幻觉,才是AI时代的经营基本功。
夜雨聆风