AI 没有变笨,是你把它推进了失效区间
一开始,它真的很好用
之前我在做一个隐私工具应用 FaceBlur,功能是给照片里的人脸打码。上架前需要做 App Store 的五张截图,我把需求丢给 stitch :尺寸 1242×2688,深色背景,界面居中,文案突出隐私保护。
第一张出来的效果,我当时有点惊讶。构图干净,配色合理,文案也够准。我连续做了五张,基本可以直接用。
那段时间我对 AI 生成 UI 这件事非常有信心。
后来我又开始做 VIXA——一个双摄相机应用,前后摄同时录制,有画中画模式。App Store 截图同样交给 AI 来生成。这次我想进一步优化,开始在同一个会话里反复迭代:调颜色、改文案、换布局。
第十几轮的时候,事情开始变味。
AI 生成的截图里,突然出现了一个不存在的 TabBar。我的应用根本没有 TabBar,但它就那么画上去了。我在 Prompt 里加了”严禁出现 TabBar”,没用。我又加了”必须严格遵守原始界面结构”,还是没用。
然后是尺寸。1242×2688 这个硬性要求,从某一轮开始它就开始”漂移”——输出的比例不对,或者内容布局按一个完全不同的屏幕尺寸来排。我把尺寸要求加粗、加感叹号、写在最前面。没有任何区别。
我当时的第一反应是:这个模型是不是更新了?变笨了?
后来我意识到,我问错了问题。
它没有变笨,你进入了它的失效区间
大模型不是一个规则执行器,它是一个概率预测系统。
每次生成内容,它做的事情是:根据所有输入,预测下一个最合理的输出。它不是在”执行你的命令”,它是在”推测你最可能想要什么”。
这两件事听起来很像,实际上有本质区别。
一个规则执行器:你说不能有 TabBar,它就物理上不会输出 TabBar。
一个概率系统:你说不能有 TabBar,它把这条信息和上下文里几十个其他信号混合计算,如果历史对话里反复出现过带 TabBar 的界面设计,那”有 TabBar”这个模式的权重依然很高。
你写的”必须”、“严格”、“禁止”,在它眼里不是约束,而是参考。
长对话是怎么把 AI 拖垮的
有一个概念叫 Context Drift,上下文漂移。
当你和 AI 的对话超过一定轮次,早期的指令会被后期大量内容稀释。模型的注意力机制是有限的,它不会平等地关注所有内容——越早的 Prompt,在长对话末尾被”关注”到的概率越低。
你以为你的系统指令一直有效,其实它已经被二十轮迭代里的各种变体慢慢覆盖掉了。
更麻烦的是指令漂移(Instruction Drift)。你在迭代过程中不断修改要求——先说”背景要深色”,后来说”试试浅色”,再后来说”还是回到深色”——这些相互矛盾的指令全部留在上下文里。模型不知道哪条是真正的权威,它只能在所有信号之间找到一个”平均答案”。平均答案往往不是你想要的任何一个版本。
用工程类比来说:这就像你的状态机一直在接收新的状态更新,却从来没有 reset。最后它跑在一个没有人能预测的中间状态上。
多模态对”精确”本来就是弱项
还有一个被低估的问题:多模态模型对精确数值约束的控制能力,天生就弱。
文字生成可以有很强的规则遵循能力,但图像生成是一个完全不同的任务。1242×2688 这个像素尺寸,对语言模型来说只是一串数字——它理解这串数字的语义,但它并不是在”绘图软件里设置画布尺寸”,它是在通过扩散模型或类似机制生成内容,像素级精度根本不在它的控制范围内。
这是生成模型和约束系统之间的本质矛盾:生成模型的目标是”产生合理内容”,约束系统的目标是”保证规格正确”。这两件事的优化方向不同。把精确约束的任务交给生成模型,你是在用一把锤子拧螺丝。
为什么”用久了感觉变笨”
原因其实有几层叠加:
第一层,你的任务变难了。早期你拿 AI 做简单任务,它表现优秀。后来你用它做更复杂、更精确、更有约束的任务,它开始暴露边界。不是它退步,是你的要求升级了。
第二层,你的使用方式出了问题。长对话、反复迭代、没有清理上下文,这些操作把 AI 推进了最容易出错的状态。
第三层,错误被放大了。AI 犯了一个小错,你在这个错误的基础上继续迭代,新的内容反过来强化了错误模式,形成一个正反馈的失控循环。
可执行的解决方案
说完问题,说方法。这些都是我在实际项目里测试过的做法。
让 AI 负责结构,不负责精确结果。 AI 非常适合出概念、定布局、写文案初稿。但如果你要精确尺寸的截图,最终必须进 Figma 或者用代码生成。不要幻想 AI 一步到位。
任务要拆小。 不要在一个会话里解决所有问题。一个会话做一件事。做完,输出结果,关闭会话。下一个任务重开一个干净的上下文。每一次重开,都是一次 reset,你把一个跑乱了的状态机重置成初始状态。
定期清理上下文,或者直接新建会话。 长对话是 AI 失效的温床。我现在的习惯是:迭代超过八轮,强制重开。把核心需求重新整理成一段干净的 Prompt,重新开始。
使用结构化 Prompt,而不是自然语言命令。 与其写”必须严格遵守 1242×2688”,不如用 JSON 或固定模板把约束显式结构化,放在 Prompt 的最前面,作为独立的”约束块”。这样上下文漂移时,约束部分的信号权重相对更稳定。
区分”生成任务”和”执行任务”。 生成任务给 AI(文案、结构、方案),执行任务给工具(Figma、Sketch、代码)。这两类任务混在一起,你会两头都做不好。
结尾
AI 不会变笨,但它有失效区间。
你进入失效区间的方式通常是:任务太复杂、对话太长、约束太精确、迭代次数太多。
更深的认知是:你以为你在给它写规则,其实你在给它提供参考。大模型没有执行引擎,只有概率分布。规则在它那里,只是一种信号。
独立开发者使用 AI 的核心方法论,不是”如何让 AI 做得更精确”,而是**“如何设计工作流,让每个环节只做它擅长的事”**。
AI 擅长生成,不擅长约束。擅长模糊,不擅长精确。擅长起点,不擅长终点。
把它放在对的位置,它就是加速器。放错了位置,它就是一台会产生幻觉的复杂噪声机器。
夜雨聆风