乐于分享
好东西不私藏

用AI做了不少事情后,我对AI的真实体会

用AI做了不少事情后,我对AI的真实体会

这段时间,我用Codex,vscode+github copilot做了不少事情。现在谈谈体会。

很多人现在谈 AI,喜欢用两个词:一个叫“提效”,一个叫“替代”。

但这两个词都不够准。提效,太轻了,像是把它理解成一个更聪明的 Office 插件;替代,又太重了,仿佛下一步就是岗位消失。

真正发生的变化,其实更像第三种情况:AI 正在成为一种新的生产界面。

什么叫“生产界面”?过去一项知识工作,往往要在很多界面之间来回切换。想法在脑子里,需求在文档里,数据在 Excel 里,逻辑在会议里,结果在 PPT 里,最后还要靠人把这些碎片重新拼起来,才能形成一个能推进的东西。真正耗时的,往往不是某一个动作本身,而是这些环节彼此断裂。

而这恰恰是这段时间 Codex 最让我改观的地方。
比如我想做个自驾线路规划的demo,AI不是只给了几个产品点子,而是一路把事情推进成了 PRD、子系统边界、数据模型、角色权限、Azure 架构规划和实施路径。
一个原本还比较模糊的自驾路线想法,最后被压成了可讨论、可拆分、可继续开发的产品资产。
再比如另外一个人生画像的POC,AI不是只帮忙润色文案,而是把一个“人生画像”方向推成了完整的开发设计文档、报告结构、HTML 报告、技能封装和相关素材。
除了这些,AI还帮我把复杂 Excel 抽取成维度表和事实表,生成数据模型;也能把 Azure Updates、多云治理这些原本需要人工整理的内容,直接做成脚本化生成的 PPT 和汇报材料。

如果只是看单个任务,你会觉得这是“AI 参与了文档”“AI 参与了脚本”“AI 参与了内容整理”。但把这些 session 放在一起看,真正值得重视的不是某一个点,而是它正在同时压缩三种成本。

第一种,是把模糊问题变成结构化问题的成本。

过去很多工作推进不动,并不是因为团队不会做,而是因为问题还没被定义清楚。边界不清、优先级不清、首期范围不清、哪些该做哪些不该做不清,于是所有人都在忙,但没人真正往前推进。

AI 在这里的价值,不是替你拍板,而是可以非常快地把一个模糊想法压缩成一个结构化讨论对象。

你原来脑子里只有一个方向,它却能先替你搭出边界、模块、阶段和依赖关系。这个过程表面上看是在“写文档”,本质上是在降低组织思路的成本。

第二种,是把思考变成结果物的成本。

AI 开始能直接产出下一步工作所需要的结果物。不是一句建议,而是一份 PRD;不是一个方向,而是一套架构草图;不是一句“可以做 PPT”,而是脚本、页面、备注和成品一起出来;不是“建议你整理数据”,而是把 Excel 拆出维度表、事实表和可交付文件。

这个变化很重要,因为一旦形成结果物,工作就不再停留在对话层,而开始进入可复用、可传递、可迭代的阶段。

第三种,是把隐性经验显性化的成本。

这是这段时间最深的一点体会。很多人以为 AI 会让人偷懒,但在真正复杂的工作里,AI 反而会逼你变得更清楚。

因为它不理解“你懂的”。你不给边界,它就会泛化;你不给约束,它就会说得漂亮但做得很空;你不给口径,它就会产出一份表面完整、实际难落地的东西。

换句话说,AI 并没有替代判断,反而把判断这件事暴露得更彻底了。谁能把自己脑子里的经验、标准、口径、禁区和验收条件说清楚,谁就能把 AI 用成生产力;如果自己都没想明白,AI 只会把这种含糊放大。

也正因为如此,我现在越来越觉得,AI 最先改变的,可能不是某个具体岗位,而是知识工作的组织方式。

过去我们习惯按职能分工来理解工作:产品写需求,架构师做方案,分析师整理数据,运营做内容,销售做汇报。

未来这些岗位当然还在,但其中一部分工作会被重新切分。原来每个人手里那些“需要来回搬运信息、把碎片拼成成品”的工作,会越来越多地由 AI 参与完成。

真正稀缺的是更能定义问题、做出取舍、判断优先级、发现风险,并对最后结果负责。

这也是为什么我现在不太认可一种很流行的说法:AI 的价值就是提效。提效只是结果,不是本质。

它真正改变的是工作颗粒度。以前很多事情必须凑齐几个人、切换几轮、反复对齐,才可能形成一个像样的初稿;现在,一个人加一个 AI,就已经能把很多原本卡在中间层的事情先做出来。

组织的瓶颈,不再只是“有没有人做”,而越来越变成“有没有人能把问题定义清楚,并把 AI 组织进流程里”。

当然,这里面也有很大的误区。

第一个误区,是把 AI 当搜索框,不当结果引擎。很多人一聊就是几十轮,但最后没有一个正式产物落下来。这样看起来很热闹,实际上沉淀极少。AI 一旦不形成文档、脚本、图表、页面、模型、报告这些可继续流转的东西,它的价值就会停留在即时对话层。

第二个误区,是自己边界不清,却要求 AI 一步到位。比如产品首期到底做什么,不做什么;数据模型的粒度是什么;路线规划里哪些是 MVP,哪些要后置;汇报材料面对的是专家、管理层还是外部客户。

如果这些前提没有先定义,AI 往往会给出一份“什么都有一点”的东西,看起来全面,实际上不够锋利。很多人觉得这是 AI 不靠谱,本质上往往是任务定义不靠谱。

第三个误区,是把专业责任外包给 AI。像产品边界、数据口径、合规表述、业务优先级、客户风险这些事情,AI 可以高质量辅助,但不能代替最后判断。以数据建模为例,AI 可以把原始 Excel 拆成维度表和事实表,也能生成结构化输出,但粒度是否合理、字段是否足够支撑后续分析、哪些口径存在业务争议,这些都不是模型自己能承担责任的部分。

所以,如果要把这段时间的实践浓缩成几句真正有用的话,我觉得不是“赶紧拥抱 AI”,而是下面这几点。

第一,尽量不要只让 AI 回答问题,要让它交付结果物。只有结果物才会进入你的工作系统,才会被复用、修改、传递和累积。

第二,先定义任务,再追求答案。好的 AI 使用,本质上不是会不会写几句 prompt,而是会不会讲清楚目标、边界、约束、验收标准和禁止项。

第三,把 AI 放进闭环,而不是停留在单点对话。让它参与需求定义、方案拆解、产出生成、人工校核和持续迭代,这样它才真正是生产工具,而不是灵感玩具。

第四,保留人的独立判断。AI 最大的风险,不是完全胡说,而是说得很像对的。越流畅,越要追问证据、边界和落地条件。

这也是我现在越来越明确的判断。AI 不会自动让一个团队变强,它只会放大这个团队原本的工作方式。

边界清晰、判断扎实、愿意把经验沉淀成规则的人,会因为 AI 变得更快;而那些习惯含糊表达、依赖拍脑袋推进、不愿校核结果的人,只会得到更多看起来很忙、实际上难以落地的半成品。