AI的发展并非杂乱无章,而是沿着一条清晰的能力演进路径推进:从基础模型能力,到提示词工程,再到上下文结构化管理,进而到工具调用,最终走向可控执行(Harness)。每一层都建立在前一层之上,而非简单的替代关系。
AI的发展看似概念层出不穷,实则沿着一条清晰的主线推进:把"概率能力"变成"可控系统"
一条主轴,六个层级
AI的进化遵循经典路径:
能力涌现 → 用法不稳定 → 工程化封装 → 平台化抽象 → 基础设施化逐层补全缺失的系统能力并不是替代关系
能力(Model)→ 表达(Prompt)→ 信息(Context)→ 行动(Tools)→ 过程(Harness)→ 系统(Agent OS)缺乏顶层认知的观察者,容易被层出不穷的新概念冲昏头脑——最典型的症状,就是那些公众号里周期性出现的死亡宣告:"MCP已死""Prompt工程已死"。这些标题的本质,是用线性替代思维掩盖了技术栈的累积性本质。
每一步到底在解决什么“本质问题”
Model(能力层)
解决:
AI 能不能做这件事特征:
涌现能力不稳定不可控Prompt(表达层)
解决:
人如何把意图传递给模型本质:
接口设计(Interface Design)问题:
脆弱(prompt 改一点就崩)不可复用Context Engineering(信息层)
解决:
模型决策时“信息是否充分且正确”核心矛盾:
上下文有限信息不完备噪声干扰👉 本质是:
信息调度系统(Information Scheduling)Tools(行动层)
解决:
模型是否能“作用于世界”否则:
只能“说”不能“做”👉 本质是:
把 LLM 接入确定性系统Harness(过程层)
解决:
一次成功 ≠ 稳定成功关键问题:
多步任务不稳定无法复现无法调试👉 本质:
把“推理过程”变成“可控流程”Agent OS(系统层)
解决:
多个 Agent 如何协同而不失控问题升级为:
资源竞争状态一致性权限与隔离系统复杂性爆炸👉 本质:
复杂系统管理如何保持清晰的判断,防止被带跑偏
大多数内容在犯一个认知错位问题:把“层级”误认为“阶段”
正确关系是:
Context ⊂ Harness ⊂ Agent OS而不是:
Context → 被替代 → Harness任何新概念我们都可以去判断它是属于哪一层级的问题:
输入?信息?执行?控制?系统?同时定位它是新增能力,还是工程化已有能力
最后一句核心认知:
AI 发展的主线不是“新技术替代旧技术” 而是:围绕不确定性,逐层构建控制系统
夜雨聆风