AI助手做不出来?我踩了一个很真实的坑
今天讲一个我刚踩的坑。
我前面不是说,要把“能用的AI助手”,做成一个可复用的AI系统吗?
我这两天在推进 Agent OS 的 Phase 4,本来应该是能力固化的阶段。
但结果是——
助手直接废了。
现在我在 secweb 网页里用的这个助手,输出开始变成一种很典型的问题:
👉 全是“正确的废话模板”
👉 结构很完整,但完全不能用
👉 看起来像专家,其实没有判断
这其实是一个很关键的信号:
当你开始“系统化AI”的时候,最大的问题不是能力不够,而是——过度抽象。
我复盘了一下,本质是我把这些东西搞复杂了:
prompt 变成了“标准答案生成器”
workflow 变成了“流程模板”
memory 没有真正参与决策
所以模型就学会了一件事:
👉 “稳定输出一个看起来对的结构”
但它已经不再解决问题了。
我现在在做一个调整,也分享给你:
下一步我不会再优化“提示词写得更好”,
而是做三件事:
强制加入“判断节点”(而不是直接生成答案)
让助手先拆任务,而不是直接回答
把“是否可执行”作为输出标准,而不是“是否完整”
所以如果你也遇到一个问题:
👉 AI越来越像模板生成器
👉 但离“能用”越来越远
你要警惕的不是模型不行,
而是你已经进入了——
系统设计阶段。
下一条,我会拆:
👉 一个“能用的AI助手”和“模板助手”的本质区别
夜雨聆风