给如今的AI祛祛魅
大半年没写东西了。不是没东西写,是事情太多:AI玩具、AI乐器、AI生命体、AI学习桌、AI花盆……基本全在舒适圈之外。
说白了,就是一边干,一边被现实反复教育。
这篇不讲方案,只讲一个结论:
现在这波AI,被严重神化了。
一. 你有没有“中招”,一问就知道
判断标准很简单:
你是不是觉得——
只要时间够,沿着现在这条路线走下去,大黄蜂、机器猫、萨曼莎、瓦力这些东西,迟早会来?
如果你点头了,那你已经中招了。
别不好意思,这波AI的欺骗性非常强。
-
你和豆包聊两句,感觉像真人;
-
让Claude写点代码,效率飞起;
-
用SUNO搞点音乐,感觉自己也“行了”。
然后你顺着这个感觉往下推——
要不要跟?会不会被淘汰?是不是该all in?
但很遗憾——
这是错觉。
二. 问题不在“能力不够”,而在“方向错了”
现在所有主流思路,本质都一样:
-
多试几次Prompt
-
多补点知识
-
再加点记忆
-
再封一层Agent
Manus、龙虾、河马……全是这个套路。
看起来很牛,对吧?
但你只要真的用它们做过复杂一点的事情,就会发现:
它们本质上是不稳定的。
今天能用,明天就崩;
这个场景能跑,换个条件就翻车。
很多人会说:
模型还不够强
但这么说太浅显了。
你应该继续问:
-
到底是哪些方面不够强?
-
为什么不够强?
你只要顺着问下去,就会撞到一个核心问题——
三. 这波AI的底层,不是“逻辑”,而是“概率”
别被表象骗了。
现在的AI,看起来有逻辑,其实没有。
它只是——
在概率上“最像有逻辑”。
举个极简单的例子:
你问一个孩子:
“北京早上7点太阳在哪?”
他会说:东方。
你再问为什么,他可能讲不出天文学,但会说:
“因为东边日出西边日落。”
这叫逻辑推理。
再看AI:
它也会说东方,也会说东边日出西边日落。
但它不是推理出来的。它只是从海量数据里算出:
这个问题后面,大概率会接这些词。
然后一个词一个词拼出来。
它没有“理解”,只有“匹配”。
四. 最关键的一点:概率≠逻辑
很多人卡在这里。
他们会说:
结果是对的,那不就等于有逻辑吗?
不等。
我给你一个更极端的类比:
假设有三个人——
A:真正会思考的人
B:只负责转发
C:提问的人
C只和B对话。但B每次给出的答案,其实都是A写的。
那C会不会觉得B很聪明?
会。
但B本质上是什么?
只是个转发器。
这就是现在AI在做的事:
用“看起来正确的结果”,掩盖“没有推理能力的事实”。
五. 为什么你一做复杂事情就崩
你只要真的拿AI做过决策类、流程类、系统类的东西,就会发现一个问题:
它无法稳定。
你可以不停优化:
-
改Prompt
-
补知识
-
加记忆
短期看,好像解决了。
但过一段时间,一定会出新的问题。
然后你继续修。
再修。
再修。
最后你会发现:
你其实在干一件事——
用概率系统,硬做确定性系统。
这可能成功吗?
六. 我自己是怎么被“打醒”的
我在做AI生命体的时候,踩得非常狠。
一开始的想法很理想:
不写规则,让AI自己决策
因为写规则就是枚举,而枚举一定覆盖不全。
听起来很对,对吧?
但现实是:
不管你用哪家的模型,多大的模型——
都会翻车。
你一定会遇到:
-
被概率“选错”的情况
然后你开始调Prompt。
调完,好了。
过两天又坏了。
你再调。
循环几次之后你会意识到:
你又回到了“无限枚举”。
只是换了一种形式而已。
七. 一个必须接受的结论
如果你把这些问题都想明白了,你大概率会得到一个结论:
现在的AI,本质是——
概率伪装出来的逻辑。
它是演员。
不是思考者。
所以你让它去“演”,它很强;
你让它去“负责”,它一定出问题。
你总不能指望何润东真的能“力拔山兮气盖世”吧?
八. 那现在这波AI,是不是没用?
不是。
只是——
你把它用错地方了。
它擅长什么?
不确定性问题
比如:
-
图像识别
-
语音生成
-
模糊判断
这些问题,本来就没明确规则。
但你非要让它做什么?
-
工作流控制
-
业务决策
-
系统逻辑
那就一定出问题。
因为这些东西,本质是确定性问题。
该用代码解决的,你偏要用概率。
不翻车才奇怪。
九. 每轮热潮之后,真正留下来的是什么
AI历史上,每一轮热潮都会很疯狂,也都会退潮。
但退潮不等于一无所有。
每次泡沫破掉之后,总会留下点真正有用的东西。
比如Amazon的Alexa(Echo那一波),当年很多人以为家庭智能助理时代已经来了。后来这些想象基本破了,但语音识别、语音合成、语音交互这些技术留下来了。
所以问题不是“AI有没有用”。
问题是:
这一轮AI热,最后真正能沉淀下来的技术是什么?
如果你早点看清这一点,就不会被AGI叙事带着跑,也不会因为别人喊得热闹,就急着跟风、转型、all in。
在我看来,当前AI真正值得沉淀的,是它对“不确定性问题”的处理能力。
但把它包装成“通往AGI的路径”,甚至暗示现在已经可以替代人的判断、控制复杂流程、重构组织成本,那就是另一回事了。
十. 我真正反感的,是那些煽风点火的人
我现在真正反感的,不是AI技术本身。
我反感的是那些借着AI热,持续误导AI应用方向的人。
Manus也好,龙虾也好,河马也好,还有一堆跟着吹的自媒体,本质上都在强化同一种幻觉:
只要套上Agent、加上记忆、接上知识库、调好Prompt,AI就能自主完成复杂任务,甚至替代人的判断和组织能力。
这才是我最反感的地方。
他们把AI真正擅长的“不确定性问题处理”,硬包装成
-
“确定性工作流自动化”
-
“复杂系统自主决策”
-
“组织降本增效神器”
这不是在推动AI应用落地,而是在把应用方向带歪。
更可笑的是,还有公司说要把员工“蒸馏成Skill”,然后缩减成本。
如果AI真的已经到了AGI水平,这样做在技术上当然可以实现(伦理上再议)。
但现在到了吗?
现在不过是把人的经验、流程、表达、判断,拆成一堆看似可调用的Skill,再交给一个本身并不具备稳定逻辑推理能力的概率系统去调度。
这听起来很先进,但本质上还是在拿概率系统硬做确定性系统。
有些人是真不懂,那叫无知者无畏;
有些人是懂,但还是要吹,那就不是蠢,是坏。
聪明人坑人,比蠢人坑人危害大得多。
因为他们讲出来的话更像真的,包装出来的东西更像未来,最后把一堆原本不该跳坑的人,全忽悠进去了。
所以我不是反感AI。
我反感的是借着AI热,拿“概率伪装出来的逻辑”去冒充真正的智能,然后再反过来教育别人:你不跟,就是落后。
保持清醒,比跟风更重要
如果你把目标定在:
大模型 = 通往AGI的路径
那你大概率会走在一条错误的路上。
但如果你把它当成:
一种处理不确定性问题的工具
那它非常有价值。
这一轮AI热,真正值得做的,不是跟着别人喊AGI,也不是急着把所有东西都塞进Agent里。
真正值得做的,是尽早看清楚:
哪些能力只是泡沫,哪些技术会沉淀下来,哪些场景真的适合AI,哪些场景本来就该老老实实用软件工程解决。
这才是这一轮AI热里真正有价值的事情。
区别只在于——
你清不清醒。
—
写着写着也有三千多字了,本来想着少写点儿,结果一不小心又没收住。
懒得再改了,就这么着吧。
PS:
-
这篇文章是ChatGPT帮我修改的,三千多字,真的懒得改,本来是让ChatGPT检查错别字的,它“说”可以帮我写一篇强化版,我就让它写了,貌似比我写的要舒服些,于是我稍微修改了下,就干脆搬过来了。但是,如果没有我的原文,只给它一个标题,它是写不出来的。
-
其实ChatGPT还说可以帮我生成另外两个版本:核弹版(引发冲突)和点名版(针对不良套路)。我看了下,AI味儿重,不喜欢,弃了。
夜雨聆风