我接触了很多产品经理和设计师,发现这两年聊 AI 产品,大家最容易盯着的,还是“它长什么样”、“入口怎么放”、“功能怎么排”。但我越来越觉得,AI 时代真正变掉的,不只是交互形式,而是产品设计的重心。以前做产品,我们主要在设计页面、功能和信息架构。说白了,是在设计“人怎么操作系统”。可当 AI 开始替人执行任务之后,事情就变了。不只是要考虑页面怎么摆,还要考虑:模型有没有拿到正确的目标?上下文够不够?工具能不能调用?记忆怎么维护?哪些地方必须让人 review?很多 AI 产品看起来很聪明,用起来却很蠢,问题往往不在模型,而在这套执行环境根本没设计好。所以我现在越来越倾向于一个判断:“ AI 产品的核心,正在从信息架构,变成上下文架构 ”
一
先说什么叫“信息架构”。过去做产品,核心问题通常是这些:
功能怎么拆
页面怎么组织
信息怎么分层
用户从哪个入口进入
操作路径是否顺畅
这套方法在传统软件时代非常有效,因为那个时代的默认前提是:人负责理解问题,人负责执行操作,系统负责提供界面和反馈。比如你做一个电商后台,重点是菜单怎么分组、筛选怎么设计、数据表格怎么排、详情页放哪些信息。你本质上是在帮人更高效地使用系统。可 AI 产品不一样。图片来自网络,侵删当模型开始参与理解、决策、调用工具、执行任务时,执行者不再只是用户本人了。很多时候,系统的一部分操作链条,其实是模型在替你跑。一旦执行者从 “人” 变成 “人 + 模型”,你要设计的东西就不只是页面本身了。你还得设计模型怎么理解任务,怎么拿上下文,怎么用工具,什么时候该停,什么时候该把控制权还给人。这就是为什么我觉得,只盯着信息架构,已经不够了。不是它没用,而是它已经从“主战场”退成了“基础层”。
二
很多 AI 产品的问题,其实都不是“模型不够强”,而是“上下文设计太烂”。这话听起来有点暴论,但基本就是事实。如果你跟风养了虾,听别人描述、看别人的案例会觉得很惊艳:“哇,它会写。”“哇,它会总结。”“哇,它会帮我自动做任务。”图片来自网络,侵删结果你真用起来,几轮之后就开始出问题:
它理解错了你的目标
它抓错了重点
它把不该改的东西改了
它忘了你前面说过什么
它明明调用了工具,但结果根本没法用
它看起来一直在干活,其实越跑越偏
很多人第一反应是:模型不行。然后就开始四处换模型,研究怎么接入 Claude 不被封号。真拆开看,常常不是模型不行,而是设计者压根没把执行环境设计明白。就像你招了一个很聪明的新员工,但你既没讲清目标,也没给清楚上下文,也没规定权限边界,也没告诉他什么时候该来问你,最后他当然会把事情做歪。模型也是一样。AI 不是魔法,它只是把“上下文设计”这件事的重要性,放大了一百倍。
三
那什么叫“上下文架构”?如果让我用最简单的话说:上下文架构,就是你为模型设计的一整套执行环境。它不只是 prompt,不只是知识库,也不只是记忆。而是:你让模型在什么目标下工作、看到什么信息、能调用什么工具、保留哪些记忆、在哪些节点接受人工 review,这整套东西加起来,才叫上下文。在我现在的理解里,一个完整的 AI 产品,至少有 5 层上下文要设计。
1. 目标上下文
这是最容易被忽略、但最致命的一层。模型必须知道:
最终要达成什么结果
什么算成功
什么是不该做的
这次任务的边界在哪里
很多 AI 产品失败,不是因为模型不会做,而是因为目标本身就是糊的。用户随手说一句,系统随便理解一下,就开始往前跑。跑到最后发现,方向根本不对。传统软件很多时候可以靠用户自己一点点点出来,但 Agent 不行。它一旦开始自主推进,目标稍微歪一点,后面全歪。所以在 AI 产品里,目标表达本身,已经是产品设计的一部分了。
2. 任务上下文
模型还得知道:
当前任务进行到哪一步
哪些步骤已经完成
哪些依赖还没解决
下一步应该推进什么
这一层本质上就是任务状态管理。以前很多软件不太需要系统自己维护这层,因为人脑会补。用户自己知道刚做了什么、接下来该点哪儿。但当模型参与执行时,如果没有清晰的任务上下文,它每一轮都像刚进门一样。于是就会出现一种很常见的 AI 失控现场:前面说过的事它忘了,做过的事它重复做,没做完的事它以为已经做完了。很多所谓 “Agent 不稳定”,本质就是任务上下文没设计好。
图片来自网络,侵删
3. 环境上下文
这层讲的是:
模型可以用哪些工具
能访问哪些文件
可以调用哪些 API
权限边界在哪里
这一层特别重要,因为它直接决定 AI 是“会说”,还是“会干”。比如它能不能读文件?能不能查数据库?能不能打开浏览器?能不能调用业务接口?能不能写回系统?这不是技术细节,这是产品结构。因为一旦环境上下文不清晰,AI 不是能力不足,而是会变得要么束手束脚,要么乱用权限。我越来越觉得,像文件系统、工具链、MCP 这类东西,本质都不是“高级技术点”,而是在给模型补全执行环境。AI 从“对话工具”变成“现实执行者”,靠的不是一句 prompt,而是这层环境上下文。
当然,信息架构不会消失。别又一激动就把旧东西全推翻了,那是另一种蠢。页面依然重要,交互依然重要,结构依然重要。只是 AI 产品把一个以前没那么显眼的层,推到了台前:上下文设计。以后谁能把目标、上下文、记忆、工具、review 这几件事设计明白,谁才能真正做出稳定、可用、可信的 AI 产品。说到底,AI 产品最难的,可能从来不是“让模型说得更像人”,而是“让系统在真实任务里,持续地不犯蠢”。而这件事,靠的不是更华丽的界面,而是更清楚的上下文架构。如果要把我今天想说的压成一句话,那就是:AI 时代,产品设计的主战场,正在从页面,转向上下文。
基本文件流程错误SQL调试
请求信息 : 2026-04-15 04:09:17 HTTP/1.1 GET : https://www.yeyulingfeng.com/a/530039.html