我之前一直认为,AI 输出效果不好,是因为我的 Prompt 写得不够完美。
于是我在网上搜罗各种“大师级 Prompt 框架”,加上角色设定、加上思维链、加上格式约束。我甚至建立了一个几百行的 Prompt 库,试图通过“微调话术”来榨干模型的能力。
直到我读了 Karpathy 最近关于 AI 编程的观点,又看到 Anthropic 官方文档把“上下文文件”提到了前所未有的高度,我才意识到:这条路走反了。
Prompt Engineering 正在死亡。取而代之的,是 Context Engineering(上下文工程)。
如果你还在花 80% 的时间写 Prompt,只留 20% 的时间给数据和工具,那你可能正在被时代抛弃。
为什么 Prompt 救不了你的 Agent
Prompt 的本质是什么?是你在对话开始时,给模型的一段“一次性指令”。
它有三个致命的缺陷:
- 遗忘性
:无论 Prompt 多长,一旦对话轮次增加,早期的指令权重就会被稀释。模型“记不住”你的初衷。 - 不稳定性
:模型对 Prompt 的微小变动极其敏感。改了两个字,输出可能完全变样。这种“玄学”让工程化无从谈起。 - 信息孤岛
:Prompt 是静态的文本,它无法实时获取外部知识。你不可能把几百万字的代码库或数据库全塞进 Prompt 里。
真正的高手,早就放弃了“雕琢提示词”的执念。他们把精力花在了上下文管理上。
什么是 Context Engineering?
Context Engineering 的核心逻辑是:与其教模型“怎么说话”,不如给它“最全的背景信息”。
它包含三个维度的构建:
- 静态上下文
:项目文档、代码库、风格指南(CLAUDE.md 就是典型)。 - 动态上下文
:实时运行的日志、数据库查询结果、API 返回值。 - 交互上下文
:记忆机制,让模型记住用户的偏好和历史决策。
Anthropic 最近甚至专门发布了 Context Engineering 的指南,明确指出:与其写一个 500 字的复杂 Prompt,不如提供 5 个精准的外部文档引用和 3 个可用的工具。
这就是从“语言学”向“工程学”的转变。
从 Prompt 到 Context 的三个实操转变
对于普通开发者和创业者,怎么落地?
第一:用“系统文件”替代“角色指令”
以前你在 Prompt 里写:“你是一个资深的 Python 工程师,遵循 PEP8 规范……"
现在的做法是:在项目根目录放一个 CLAUDE.md 或 .cursorrules,里面写明:
# 项目规范 - 语言:Python 3.11+ - 风格:遵循 PEP8,使用 Ruff 进行 Lint - 架构:FastAPI + Pydantic V2 - 禁止:不要使用全局变量,所有配置从 .env 读取 AI 每次打开项目自动加载这些规则,不需要你重复说。
第二:用 MCP 协议连接真实世界
不要再手动复制粘贴数据库内容给 AI 了。使用 MCP(Model Context Protocol),让 AI Agent 直接连接你的 PostgreSQL、GitHub 或者 Google Drive。
Context Engineering 的精髓是:让模型自己去“读”环境,而不是你当搬运工。
第三:建立“记忆层”
对于长期运行的 Agent,必须引入记忆机制(如 Vector Database 存储长期记忆,Context Window 存储短期记忆)。让 AI 知道“你昨天让我做了什么”,而不是每次都从零开始。
写在最后
Prompt Engineering 只是 AI 时代的“识字班”。它很重要,但它不是护城河。
Context Engineering 才是真正的“建筑师”。它决定了你的 AI 应用到底能走多远,能解决多复杂的问题。
把你的 Prompt 库扔了吧,去整理你的上下文文件和工具链。
关注公众号,回复【进化】加入 AI 商业前沿交流群。关注变量引力,一起进化。
夜雨聆风