打破“AI反向提问”的浅层认知:开启深度对话革命,驱动AI协同模式跃迁! 近期大量看到不同主播在视频中讲让AI反向提问,每个主播都信誓旦旦,让我误以为让“AI反向提问”是他想出来和发明的!而实际情况是,各大平台都有一帮人在讲如何解构一个爆款视频,做出一个相似内容,但不被认定为抄袭的方法!这么多主播都在讲让AI反向提问,大抵都是爆款的复制版!一方面是平台的规则催化大量同质化内容(不涉及抄袭)的方法,方法变得越来越精妙。甚至官方都出品教程教人如何复制爆款;平台看似想要有好的内容,却并不深入研究什么是真正的好内容!大量低质错误的内容,因为追求爆款而被大量复制。同时,另一面,有观点高认知的内容因为AIGC率的问题被限流,本质是好内容的标准混乱,舍本逐末,在主要问题上缺乏洞察,在细枝末节处表现得十分上心。是一种典型的战术上勤奋掩盖战略上的懒惰! 而更为重要的是,我们应该认真的探讨一下“AI反向提问”真的如他们所说的那么有价值?我的结论是并非如此!其不过是在“AI应用”主题内容上追逐爆款的又一个误导性的错误认知!独立思考,反思与思辨是人类最可贵的特征之一!我们今天就来认真的讨论一下“AI反向提问”的实际价值,以及该如何更睿智理解与实践人类应用AI互动与协同创造价值。 无论是向AI提问,强调提示词,还是谈AI反向提问,其本质都是一种单向互动。而现实人类和AI是一种双向的互动。在人类使用提示词时,无法基于AI的回答持续性提出更多好的问题,才是问题的关键。AI反向提问也是一样的道理,我们只重视提问,其实是完全不够的,持续高质量的与AI互动才是真正有价值的人类与AI协同,这时我们就一定要重视“倾听”或对AI输出内容的“解读”!而不能有效理解AI输出,仅依靠有效的提示词或AI反向提问,是难以保证最后的结果会更好。背后的原因有以下几点: 1、首先你不可能在当下全知全能的确定AI能力的边界。用一套所谓的提示词一次性就能搞定所有,几乎是不可能的。除非你对AI(大模型)背后的逻辑了如指掌!那么单次的高质量提示词就是一个错觉。是比啥也不知道稍好的入门方案,而绝非是一个中高阶的解决方案! 2、其次,如果一次提问互动不能得到完美的解决方案,持续互动就是一个必然的选择,而持续互动的核心不仅仅是提问,更需要借助高质量的“倾听”,高质量信息解读。能不能“听懂”,正确的解读AI(大模型)输出,形成下一个回合的互动提问就变得至关重要!而只有高质量的持续互动才能解决对AI能力边界的识别与判断。这里,非AI背景的同学不易察觉,AI专业背景的同学因缺乏AI之外的领域/问题域的建模能力,也会误入歧途; 3、再其次是判断,包括AI输出内容是否是客观事实,内容被解构后的观点洞察是否正确?都是判断的基础。而客观现实是:AI连基于搜索的内容输出都会有大量错误幻觉,基于错误的内容得出错误的结论的可能性其实是常有的事情。AI通用模型在绝大多数垂直领域的表现水平是较低的。而这个问题短时间使用原生AI一定是难以解决的,借助垂直专家和AI高质量的持续互动是解决方案之一。好的问题真那么有价值了吗?在没有答案前,我们真的知道哪些是好问题吗?是不是关于“好问题”仅仅是一个后知后觉的包装?我的回答是肯定的。在没有拿到高质量的答案前,我们并不会知道那个是好问题那个是坏问题。除非我们事先知道了答案!我们才能在答案没有出来之前知道那个问题更好!而这正是后知后觉的人们包装“好问题价值”的反向证明!一个好问题真的比一个好答案更有价值?不可能!好问题的价值仅仅是比不问问题,缺乏反思思辨好那么一点。如果你仅仅停留在好问题上,其实是在问题解决的过程中才刚刚出发。我不反对好问题有价值,我只是想提醒大家不要停留在所谓得好问题上,没有得到好的答案,好问题几乎啥也不是,就像我们今天谈的提示词和AI反向提问一样。也包括人们学习德鲁克思想总聚焦于德鲁克提出了好问题,而同时代的很多大师早就给出了很多好答案!好问题并没有大家想象的那么有价值。 如何破除对AI输出的低水平解读?在持续与AI互动下,识别AI输出的错误,偏离以及依据这些判断再次发出针对性的高质量提问,是我们在与AI互动的真实场景,单向一次性高质量提问(无论是提示词还是AI反向提问)都是不现实。那么我们如何解决这个问题?我们构建一个前提假设在分两种请款和大家一起讨论这个问题的可能解决方案。我们假设在场景下解决问题的领域/问题域下的水准AI是6分,我们是4分或我们是8分的两种情况,我们该如何更好地和AI互动,创造更高的价值。 1、6分AI与8分顶级顾问的互动:与AI持续高质量互动能力是使用AI创造价值的核心。8分的顶级顾问会使用DLR(D:做法/行为/手段;L:逻辑/因果驱动;R:成果/场景下成果描述)模型解构AI的输出,进行判断和决策下一步的行动。直到找到8分顾问认同的解决方案;这个过程是8分顶级顾问可以不断地通过互动识别AI能力的边界,哪些AI可以做,质量不错,哪些AI胡说八道,不是可信的,能够分离出来。基于对AI在场景问题域内的能力边界识别形成可靠的协同策略,高质量完成任务。本质上是8分顾问主导的可以对解决方案负责的任务完成方式。这里隐藏的一个问题,当这些必要的互动被封装起来,中间的问题很难通过即时互动发现,那么解决方案的质量会收到什么样的影响?Agent等这种封装形式,是否只是将6分的大模型封装成了3分成效的产品?值得思考!还是又是一个AI业内对普通人的撸羊毛? 2、4分人类与6分AI的互动改善:大量4分的人觉得AI好厉害。这是能够理解的,但并不是一个好的当下与未来。4分人类保持现状和AI互动很难创造更大的价值,大多是学AI的学员中被割韭菜的那一群人。跳出这个陷阱最大的问题是在某个领域问题域有高于AI的6分水准的顶级顾问能力。使用DLR对问题建模,快速成为领域问题域的顶级顾问才能更好的与AI协同创造价值,甚至跃迁为超级个体!大致只有这条路可走。 1、单次提问是端到端思维缺乏的一个体现,端到端不仅是要有两个端,还包括基于类似反向传播的两端的建立关系方式,只有单向一次性的传导,怎么可能是一个好的形式? 2、近期我写了多篇国内教练市场的乱象和困境。在商业场景下传统教练非常重视提问,而倾听能力不足,导致教练对话整体质量较低。这与我们强调AI提示词或AI反向提问的单向互动逻辑一样,因不能正确解读输出信息的洞察与观点,持续互动缺乏高质量,最后赋能客户成为泡影。总结:与AI的高质量协同就不是仅仅靠提示词或者一大堆人好像发现了新大陆的AI反向提问就可以促成的,那些被二次封装的AI应用大概率是将AI(大模型)从6分降到了3分的应用。高质量的与AI协同源于对AI能力边界的识别并基于此形成的协同策略促成的。只有你是在领域/问题域下的水准达到8分。才可以主动建构有效的协同策略。停留在问题域的4分并不会更好的应用AI。大模型在向垂直领域渗透时,AI与垂直领域之间的连接才是最需要重视的核心问题,而这个问题大致是需要依赖垂直领域顶级顾问和AI的持续互动来产出!今天开始抛开提示词和AI反向提问这些单次互动的思维,投入持续高质量与AI的互动,识别AI边界,建构AI协同策略,这才是与AI协同的最帅姿势!五月的HR内部顾问研习社和HR使用CVSEF业务逻辑解读业务课正在招生,感兴趣的的同学联系我chogori-8611
【HR内部顾问研习社】:HR战略价值升级的基石
【训练营】2天吃透CVSEF业务逻辑框架,解锁真业务赋能的硬本领!HRD/OD/TD必入营
【HR转型顾问系列课】从“职能”到“战略价值”的职业发展路径突围