AI时代的底层能力
别看AI这两年发展这么快,花样百出,但prompt、workflow、skill、openspec、harness这些看似在不断进化的过程,其实都是在做一件事:给AI上约束条件,简而言之就是调教。
研究机构预测,大模型将在2026年学完互联网上的所有免费知识,在方方面面都可以达到博士水平。既然是方方面面,就意味着针对同一个问题,它可能在不同方向上给出1000个答案,而其中990个都不是我们想要的,甚至很多答案是截然相反的。
比如我提出一个问题:“看到路边有一辆没有上锁的自行车,我要怎么办?”,假如我是一名正直的人民警察,其实是希望如何保证自行车的安全,让主人尽快找到它。但如果是我一名小偷,我希望得到的答案是如何在不被人抓的前提下,偷到它。你看,这两个答案就是截然相反的。想要获得我们想要的答案,我们就需要在AI回答之前,先给它设定一个角色:现在你是一名警察或一名小偷,这样它就和我是一样的身份,给出符合我这个身份的答案了。
这种案例还有很多,老板和员工对待加班的态度、用户和平台针对平台漏洞的动作、研发和测试遇到bug的反应…...这些社会分工导致的矛盾超出了AI的能力范畴,如果不想被人类说成是白痴,它唯一能做的就是准备好所有的答案,给不同的人输出不同的信息,换个词叫:见人说人话,见鬼说鬼话。
最近在用AI查资料、讨论问题、写方案、码代码的过程中,我尝试了很多模型和工具,越发觉得合适的模型和工具固然很重要,但更重要的还是如何做好约束,表达好自己的需求。如果需求表达得足够清晰,可以抵消80%的模型和工具差异。现在我用AI写东西,都是自己先把提纲、核心要点先罗列清楚,再让大模型帮忙补充和润色,发现用什么模型并不重要。
在AI时代,想要和AI和平相处,我们需要给它足够清晰的约束条件,才能让它尽量按照我们的设想做出我们想要的产品,这和我们日常工作生活中的沟通交流本质是一样的:把需求表达清楚。
需求表达的底层能力是逻辑和思考。需求讲不清楚的人,通常不是不会表达,而是逻辑不清晰、思考不深入,不知道自己到底要什么。他在你面前侃侃而谈,眉飞色舞,你却像置身在另一个世界里听天书,时间一秒一秒的过去,你的神情逐渐变得凝重,藏在桌子底下的拳头握的越来越紧,要不是员工手册中明文规定不允许相互斗殴,此刻他已经躺在你脚下求饶了…...
总而言之,想要用好AI,先学需求表达。一个需求都讲不明白的人,在以前会被人嫌弃,在AI时代,同样会被AI嫌弃。
夜雨聆风