今天很多讨论把“用好AI”理解成会不会提问、会不会写提示词、会不会选模型。
这个目标太低了。
本文说的“用好AI”,不是让AI写一段文案、整理一份资料、生成一个简单方案,而是指在复杂度明显超出AI单次工作能力范围的复杂项目或实际商业项目里,仍然能够和AI协作,有效推进项目进度。
这才是AI真正进入生产系统后的核心问题。
复杂项目里,AI不会一次给出完整正确答案。它会遗漏上下文,误解目标,制造看似合理但实际错误的判断,也会在长对话中逐渐偏离主线。
这时,人不是简单地“向AI提问”,而是在承担项目控制、信息压缩、错误识别、任务拆解和进度判断的责任。
这件事有硬门槛。
一、有效表达
第一个门槛,是有效表达。
很多人以为自己已经把问题说清楚了,但实际上只是把感受、目标、碎片信息丢给AI。AI可以顺着这些信息生成内容,但不代表它真的进入了问题结构。
复杂项目里的表达,不是“多说一点”,而是把问题组织成AI可以处理的形式:
要解决什么问题 现在处在哪个阶段 已有约束是什么 哪些结论已经确定 哪些地方还不确定 这次希望AI完成的是判断、生成、修正,还是拆解
表达能力不够,AI就会把真实项目问题降级成泛泛问题。
你问的是业务转型,它回答的是咨询报告。你问的是产品落地,它回答的是功能清单。你问的是工程实现,它回答的是原则建议。
表面上有输出,实际上没有进入问题。
二、能发现AI的错误
第二个门槛,是能发现AI的错误。
AI最危险的地方,不是它会错,而是它经常错得很顺。
它的错误不一定表现为明显胡说。更多时候,是逻辑链中间有一处偷换概念,技术方案里少了一个关键约束,业务判断里默认了一个不存在的前提,或者把“听起来合理”误装成“可以落地”。
复杂项目里,人必须能识别这些错误。
这要求使用者本身对项目、行业、技术或业务有足够判断力。否则AI给出的内容越完整,反而越容易被误认为是进展。
低复杂度任务里,AI错了可以靠常识发现。高复杂度项目里,AI错在结构深处,只靠感觉很难发现。
发现不了错误,就无法稳定使用AI。因为你不是在和一个可靠执行者协作,而是在和一个高产、流畅、偶尔会偏航的系统协作。
三、信息吞吐量适应:警惕信息过载
第三个门槛,是信息吞吐量适应。
AI会极大提高信息产出速度。它能在很短时间内生成大量方案、解释、代码、文档、分支判断和后续建议。
但人的信息处理能力没有同步提高。
这里要明确提出一个概念:信息过载。
信息过载不是简单的“信息太多了”或者“看不过来”。在复杂项目里,信息过载指的是:人在长时间处于信息超负荷状态下,逐渐进入一种异常工作状态,失去正常判断力,被AI的输出节奏和叙事结构带着走。
这时,人表面上还在思考,还在判断,还在推进项目,但实际上已经开始丧失主导权。
AI给出一个新方向,你觉得有道理。AI补充一个新概念,你觉得应该考虑。AI展开一个新分支,你也跟着继续讨论。AI提出一套更完整的方案,你觉得项目好像又推进了一步。
但回头看,主线越来越模糊,真正需要解决的问题反而被冲淡了。
信息过载最危险的地方在于,它不会让人立刻停止工作,而是让人进入一种高强度、低判断力、持续被牵引的状态。
所以,真正用好AI,不是让AI尽可能多地产出,而是控制AI产出的粒度、节奏和密度。
复杂项目里,最重要的不是“AI还能给我什么”,而是“我现在还能有效处理什么”。
一旦使用者无法适应AI带来的信息吞吐量,AI就会从效率工具变成认知噪音源。它不是帮你推进项目,而是在持续制造看似有用的信息,把人带进更深的信息过载。
四、工程化拆解的能力
第四个门槛,是工程化拆解。
复杂项目不能直接丢给AI。
因为复杂项目通常包含目标、资源、约束、流程、角色、数据、系统、反馈和风险。它不是一个问题,而是一组互相耦合的问题。
AI单次工作能力再强,也很难一次性跨过这种复杂度。
所以人必须把项目拆成AI可处理的任务单元:
什么可以让AI直接做 什么需要人先定义边界 什么需要拆成多轮验证 什么需要先做原型 什么必须用外部数据校验 什么不能交给AI判断,只能由业务负责人决策
这就是工程化拆解能力。
没有这项能力,使用者会反复把过大的问题交给AI,然后得到过于宏观、过于完整、过于不可靠的输出。
看起来AI回答了,实际上任务没有被真正切开。
复杂项目不是靠“问一个更好的问题”推进的,而是靠持续把大问题拆成可执行、可验证、可回收的小任务推进的。
五、判断长沟通是否收敛
第五个门槛,是判断长沟通是否收敛。
很多AI协作会进入一种危险状态:对话越来越长,内容越来越多,但问题没有变清楚。
双方一直在讨论,一直在补充,一直在修改,一直有新版本。
但核心卡点没有被解决,关键决策没有被做出,下一步行动也没有变得更确定。
这时,使用者必须能判断:这段沟通是在收敛,还是在发散。
收敛的标志是:
问题边界更清楚了 关键分歧减少了 可执行步骤更明确了 不确定性被隔离了 下一步验证方式出现了
发散的标志是:
新概念越来越多 方案越来越复杂 讨论越来越抽象 没有明确取舍 没有形成可执行动作
长沟通本身不是问题。复杂项目本来就需要长沟通。
真正的问题是,很多人无法判断长沟通是否在逼近结果。于是对话持续进行,注意力持续消耗,产出却没有发生。
六、识别虚假进展感
第六个门槛,是识别虚假进展感。
这是AI协作里最隐蔽的问题。
LLM的机制决定了,它总能继续生成内容。无论你现在的问题是否被解决,它都能给出下一段分析、下一版方案、下一组建议、下一轮优化。
这会制造一种强烈的进展感。
你会觉得事情一直在推进,因为屏幕上一直有新内容出现。
但复杂项目的真实进展,不等于内容增加。
真实进展是约束被澄清,风险被识别,任务被拆开,决策被完成,产物被交付,反馈被验证。
而虚假进展是:
文档变长了,但结论没变清楚。方案变多了,但选择没发生。讨论更热烈了,但行动没出现。AI一直在回应,但项目没有推进。
这不是某个使用者不努力,也不是AI完全没用,而是LLM本身很容易让人把“持续生成”误认为“持续进展”。
越是复杂项目,这种错觉越危险。
用好AI不是低门槛技能
所以,用好AI并不是一个低门槛技能。
在简单任务里,AI确实降低了使用门槛。很多人不需要专业训练,也能立刻得到帮助。
但在复杂项目和实际商业项目里,情况相反。
AI降低了执行某些局部任务的门槛,却提高了整体协作和项目控制的要求。
因为过去你可能只需要自己慢慢想。现在你面对的是一个高产、高速、强表达、但不稳定的智能系统。它能放大你的能力,也能放大你的混乱。
你表达不清,它会把模糊问题包装成完整答案。
你发现不了错误,它会把错误推进到更深层。
你信息处理能力不足,它会制造信息过载。
你不会工程化拆解,它会在大问题上反复空转。
你判断不了对话是否收敛,就会陷入长时间沟通。
你识别不了虚假进展感,就会把无产出误认为正在推进。
这些门槛,大部分或全部达不到时,结果往往不是“AI用得一般”,而是反复进入一种更糟糕的状态:
长时间、多轮、高强度沟通。看起来一直在讨论。看起来一直有新东西。看起来一直在优化。但最后没有真实进展,也没有可靠产出。
在实际公司AI转型中,这个问题几乎会在每个人身上出现。区别只在于,有些人能逐渐跨过这些门槛,把AI变成复杂项目里的协作工具;多数人则会长期停留在“和AI聊了很多,但项目没有明显推进”的状态。
这也是AI时代最容易被低估的分化。
AI本身很强。
但在复杂项目里,真正决定AI能不能产生价值的,仍然是人能不能驾驭这种强度。
夜雨聆风