以前的软件,运行的是代码。现在越来越多的软件,运行的是“推理过程”。这是本质变化。为什么现在很多 Agent 产品,看起来都怪怪的?因为很多人其实还是在用“传统软件思维”做 Agent。他们会把 AI 拆成很多角色:有人负责规划,有人负责写代码,有人负责 Review,还有人负责测试。乍一看特别先进。实际上很多时候像什么?像几个实习生在线开会。你一句,我一句。聊半天,啥也没干。原因也很简单。人类公司那套组织结构,不一定适合 AI。因为 AI 有几个天然问题。它会忘上下文,会丢记忆;多轮沟通特别消耗 token;多个 Agent 一起协作时,复杂度会迅速上升;很多时候讨论成本,比执行成本还高。所以现在很多 multi-agent demo 很惊艳。但真正跑复杂任务,经常越来越乱。还有一个特别重要的问题。很多人以为:AI 既然已经会写代码了,那是不是很快就能自动做出微信、淘宝、支付宝?其实没那么简单。AI 最擅长的问题,通常有一个共同点:边界特别清晰。比如数学题。比如编译器。比如电路设计。这些问题都有明确规则。而且虽然解法可能很多,但答案很容易验证。数学题做完,代进去算一下就知道对不对;编译器写完,跑测试就知道有没有问题;电路设计完,也能快速仿真。这种问题,对 AI 特别友好。因为:
“生成答案”很贵,但“验证答案”很便宜。
AI 很适合在巨大的搜索空间里疯狂试错。但现实世界的软件,不完全是这种东西。微信难的地方,从来不是聊天窗口。支付宝难的地方,也不是支付按钮。真正复杂的是:用户行为永远在变化;线上环境永远不稳定;系统有大量历史包袱;商业逻辑不断调整;灰度策略、风控规则、组织协同会持续叠加复杂度。这些东西很多时候甚至不是技术问题。而是:
现实世界问题。
它没有标准答案。也没有一个“验证器”。这也是为什么:现在 AI 写 demo 已经很强了。但距离真正接管复杂系统,还有很远。不过,有个变化我觉得已经很明显了。未来的软件,可能会越来越不像“工具”。而像: