乐于分享
好东西不私藏

给如今的AI祛祛魅

给如今的AI祛祛魅

大半年没写东西了。不是没东西写,是事情太多:AI玩具、AI乐器、AI生命体、AI学习桌、AI花盆……基本全在舒适圈之外。

说白了,就是一边干,一边被现实反复教育。

这篇不讲方案,只讲一个结论:

现在这波AI,被严重神化了。


一. 你有没有中招,一问就知道

判断标准很简单:

你是不是觉得——

只要时间够,沿着现在这条路线走下去,大黄蜂、机器猫、萨曼莎、瓦力这些东西,迟早会来?

如果你点头了,那你已经中招了。

别不好意思,这波AI的欺骗性非常强。

  • 你和豆包聊两句,感觉像真人;

  • Claude写点代码,效率飞起;

  • SUNO搞点音乐,感觉自己也行了

然后你顺着这个感觉往下推——

 既然已经这么像人了,那再发展一下,不就是AGI了吗?
于是焦虑就来了:

要不要跟?会不会被淘汰?是不是该all in

但很遗憾——

这是错觉。


二. 问题不在能力不够,而在方向错了

现在所有主流思路,本质都一样:

  • 多试几次Prompt

  • 多补点知识

  • 再加点记忆

  • 再封一层Agent

Manus、龙虾、河马……全是这个套路。

看起来很牛,对吧?

但你只要真的用它们做过复杂一点的事情,就会发现:

它们本质上是不稳定的。

今天能用,明天就崩;

这个场景能跑,换个条件就翻车。

很多人会说:

模型还不够强

但这么说太浅显了。

你应该继续问:

  • 到底是哪些方面不够强?

  • 为什么不够强?

你只要顺着问下去,就会撞到一个核心问题——


三. 这波AI的底层,不是逻辑,而是概率

别被表象骗了。

现在的AI,看起来有逻辑,其实没有。

它只是——

在概率上最像有逻辑

举个极简单的例子:

你问一个孩子:

北京早上7点太阳在哪?

他会说:东方。

你再问为什么,他可能讲不出天文学,但会说:

因为东边日出西边日落。

这叫逻辑推理

再看AI

它也会说东方,也会说东边日出西边日落。

但它不是推理出来的。它只是从海量数据里算出:

这个问题后面,大概率会接这些词。

然后一个词一个词拼出来。

它没有理解,只有匹配


四. 最关键的一点:概率逻辑

很多人卡在这里。

他们会说:

 结果是对的,那不就等于有逻辑吗?

不等。

我给你一个更极端的类比:

假设有三个人——

A:真正会思考的人

B:只负责转发

C:提问的人

C只和B对话。但B每次给出的答案,其实都是A写的。

C会不会觉得B很聪明?

会。

B本质上是什么?

只是个转发器。

这就是现在AI在做的事:

 用看起来正确的结果,掩盖没有推理能力的事实


五. 为什么你一做复杂事情就崩

你只要真的拿AI做过决策类、流程类、系统类的东西,就会发现一个问题:

它无法稳定。

你可以不停优化:

  • Prompt

  • 补知识

  • 加记忆

短期看,好像解决了。

但过一段时间,一定会出新的问题。

然后你继续修。

再修。

再修。

最后你会发现:

你其实在干一件事——

 用概率系统,硬做确定性系统。

这可能成功吗?


六. 我自己是怎么被打醒

我在做AI生命体的时候,踩得非常狠。

一开始的想法很理想:

 不写规则,让AI自己决策

因为写规则就是枚举,而枚举一定覆盖不全。

听起来很对,对吧?

但现实是:

不管你用哪家的模型,多大的模型——

 都会翻车。

你一定会遇到:

  • 被概率选错的情况

然后你开始调Prompt

调完,好了。

过两天又坏了。

你再调。

循环几次之后你会意识到:

 你又回到了无限枚举

只是换了一种形式而已。


七. 一个必须接受的结论

如果你把这些问题都想明白了,你大概率会得到一个结论:

现在的AI,本质是——

概率伪装出来的逻辑。

它是演员。

不是思考者。

所以你让它去,它很强;

你让它去负责,它一定出问题。

你总不能指望何润东真的能“力拔山兮气盖世”吧?


八. 那现在这波AI,是不是没用?

不是。

只是——

你把它用错地方了。

它擅长什么?

 不确定性问题 

比如:

  • 图像识别

  • 语音生成

  • 模糊判断

这些问题,本来就没明确规则。

但你非要让它做什么?

  • 工作流控制

  • 业务决策

  • 系统逻辑

那就一定出问题。

因为这些东西,本质是确定性问题

该用代码解决的,你偏要用概率。

不翻车才奇怪。


九. 每轮热潮之后,真正留下来的是什么

AI历史上,每一轮热潮都会很疯狂,也都会退潮。

但退潮不等于一无所有。

每次泡沫破掉之后,总会留下点真正有用的东西。

比如AmazonAlexaEcho那一波),当年很多人以为家庭智能助理时代已经来了。后来这些想象基本破了,但语音识别、语音合成、语音交互这些技术留下来了。

所以问题不是“AI有没有用

问题是:

 这一轮AI热,最后真正能沉淀下来的技术是什么?

如果你早点看清这一点,就不会被AGI叙事带着跑,也不会因为别人喊得热闹,就急着跟风、转型、all in

在我看来,当前AI真正值得沉淀的,是它对不确定性问题的处理能力。

但把它包装成通往AGI的路径,甚至暗示现在已经可以替代人的判断、控制复杂流程、重构组织成本,那就是另一回事了。


十. 我真正反感的,是那些煽风点火的人

我现在真正反感的,不是AI技术本身。

我反感的是那些借着AI热,持续误导AI应用方向的人。

Manus也好,龙虾也好,河马也好,还有一堆跟着吹的自媒体,本质上都在强化同一种幻觉:

只要套上Agent、加上记忆、接上知识库、调好PromptAI就能自主完成复杂任务,甚至替代人的判断和组织能力。

这才是我最反感的地方。

他们把AI真正擅长的不确定性问题处理,硬包装成

  • 确定性工作流自动化

  • 复杂系统自主决策

  • 组织降本增效神器

这不是在推动AI应用落地,而是在把应用方向带歪。

更可笑的是,还有公司说要把员工蒸馏成Skill”,然后缩减成本。

如果AI真的已经到了AGI水平,这样做在技术上当然可以实现(伦理上再议)。

但现在到了吗?

现在不过是把人的经验、流程、表达、判断,拆成一堆看似可调用的Skill,再交给一个本身并不具备稳定逻辑推理能力的概率系统去调度。

这听起来很先进,但本质上还是在拿概率系统硬做确定性系统。

有些人是真不懂,那叫无知者无畏;

有些人是懂,但还是要吹,那就不是蠢,是坏。

聪明人坑人,比蠢人坑人危害大得多。

因为他们讲出来的话更像真的,包装出来的东西更像未来,最后把一堆原本不该跳坑的人,全忽悠进去了。

所以我不是反感AI

我反感的是借着AI热,拿概率伪装出来的逻辑去冒充真正的智能,然后再反过来教育别人:你不跟,就是落后。


保持清醒,比跟风更重要

如果你把目标定在:

大模型 通往AGI的路径

那你大概率会走在一条错误的路上。

但如果你把它当成:

一种处理不确定性问题的工具

那它非常有价值。

这一轮AI热,真正值得做的,不是跟着别人喊AGI,也不是急着把所有东西都塞进Agent里。

真正值得做的,是尽早看清楚:

哪些能力只是泡沫,哪些技术会沉淀下来,哪些场景真的适合AI,哪些场景本来就该老老实实用软件工程解决。

这才是这一轮AI热里真正有价值的事情。

区别只在于——

你清不清醒。

写着写着也有三千多字了,本来想着少写点儿,结果一不小心又没收住。

懒得再改了,就这么着吧。

PS

  • 这篇文章是ChatGPT帮我修改的,三千多字,真的懒得改,本来是让ChatGPT检查错别字的,它“说”可以帮我写一篇强化版,我就让它写了,貌似比我写的要舒服些,于是我稍微修改了下,就干脆搬过来了。但是,如果没有我的原文,只给它一个标题,它是写不出来的。

  • 其实ChatGPT还说可以帮我生成另外两个版本:核弹版(引发冲突)和点名版(针对不良套路)。我看了下,AI味儿重,不喜欢,弃了。