AI不够智能,还是你不够复杂?
大语言模型(LLM)AI到底是不是真智能,这个问题在2026年,可以收摊了。
按那个duck test的说法,叫起来像、动起来像、长得也像,那它就是。AI现在就是这么个状态——它没有原生家庭塑造出来的“人设”,没有人类的皮囊,也没有那些奇奇怪怪的temperament,但很多事它已经做得比一般人好得多。
就算是再聪明的人,跟它聊上几句,也总能碰撞出几块自己没注意过的东西。人嘛,都有盲区。
但我现在困惑的不是这个。
我困惑的是,世界好像被裁成了三截。一截人把它当作空气和水,起床第一件事就是去问候自己的Claude或者ChatGPT。一截人半信半疑,开了个号,偶尔用一用。还有一截人——可能是大多数人——装也装了,试也试了,愣是用不上,也无感。
这是怎么回事呢?
后来我想明白了。AI不是镜子里照出来的那个,它就是那面镜子。它照出的不是自己,而是一个有点难堪的事实——绝大多数人的日常生活和日常工作,根本没有足够的复杂度,装得下AI。
你的活儿不够复杂,AI再聪明,对你来说也没多少边际收益。
而代价并不低。Claude和GPT订阅都要花不少钱,学会用各种Cowork app要花时间,学Prompt要花心力,最近还来了个Harness Engineering——所有这些做完,换来的可能就是写朋友圈省下五分钟。你每天回的那些邮件、填的那些表、走的那些流程、给领导转的那些话,Claude十秒钟就办完了,可问题是,这些事本来也就值十秒钟。
这就是所谓的”门槛效应”。它劝退的不是懒人,是真没必要的人。
所以那些天天喊”AI颠覆一切”的人,要么自己的工作确实足够复杂——投行、研究、写作、编程、医疗这一类——要么就是卖课的。
我对眼下这波AI浪潮还是有点怀疑。倒不是怀疑AI不够聪明——我怀疑的是,绝大部分人的生活和“事业”够不够复杂,撑得起它的聪明。
夜雨聆风