乐于分享
好东西不私藏

AI Agent 是一种品质,不是技术

AI Agent 是一种品质,不是技术

一、两拨人,两个世界

最近半年,我明显感受到一个现象:身边朋友和同事对 AI 的态度,正在分裂成两个完全不同的世界。

一拨人每天都在关注AI最新的发展,学习新的工作流概念 、刷B站、刷各种 AI 资讯号。从 Cursor 到 Claude Code,从 OpenClaw 到 Hermes,从 MCP 到 A2A 协议——新概念一个接一个往外冒,焦虑感如影随形。”完了,昨天刚学会的东西今天又被迭代了”,”这个人用 Agent 重构了整个项目,我已经落后了”——这种 FOMO(Fear Of Missing Out)的情绪在这群人里弥漫,他们拼命地学,拼命地实践,生怕被时代甩下车。

但还有另外一拨人。他们占了绝大多数。

你跟他们聊 AI,他们会说:”AI不就是浏览器里的对话框嘛”或者”我也装了豆包,生活问题经常问它”,然后就没有然后了。你问他们有没有试过让 AI 写单元测试、整理文档和邮件、写slides,他们会露出困惑的表情——”AI 还能干这个?”在他们的眼里,AI 始终是一条新闻、一个谈资、一个”以后可能会改变世界但我暂时还感受不到”的遥远概念。

而真相是:AI Agent 的时代不是”要来”,是”已经来了”。那拨 FOMO 的人不是在杞人忧天,他们是对冲得最快的先行者。而那拨无感的人,甚至还没有意识到——AI 现在能做的事情,已经足以替代他们 80% 的工作内容。


二、事务 vs. 决策:重新理解我们在做什么

要解释这种撕裂,先得把”工作”这个模糊的概念拆开,把工作分成事务性工作和决策性工作。

事务性工作的特点是:SOP 明确、过程可描述、结果可验证。你每天填的表格,整理的测试报告,写的 PPT,开发的软件模块——它们都有一个共同点:做得好不好是一回事,但”怎么做”这件事,是可以被清晰地讲出来的。

决策性工作的特点正相反:它依赖隐性知识。产品方向为什么选 A 不选 B?软件架构为什么要这样设计而不是那样?Troubleshooting 是怎么一步步推理最后找到root cause的?这些判断的背后,是你在这个专业里日积月累下来的一切——在大学里学过的专业知识,工作后踩过的坑、读过但已经忘记出处的某篇文章、做过的每一个错误的决定。这些东西你甚至没法讲给自己听。它们是无言的、不自觉的、高度压缩的推理直觉。

用这个拆分去看 AI 的能力边界,会发现一个非常清晰的结论:

事务性工作,AI Agent 已经可以做了。而且做得不差。你给Claude Code 一份 PRD,它能写完整个功能模块;你给一个 Agent 你的邮箱权限,它能每天早上给你出一份摘要,标好优先级。这些不是未来,是现在。

决策性工作,AI 依然非常弱。隐性知识的不可言说性,意味着你没法把它写成 Prompt。推理链条一长,幻觉就出来了;信息一旦不完整,判断就错了。AI 现在能辅助你做决策——帮你整理信息、帮你对比方案——但”综合考虑做出最合理判断”,它做不了。

到这里,结论似乎很乐观:事务性工作被 AI 吃掉,人类被解放出来做更有价值的决策性工作,多好。

但体感不是这样的。

因为我们忽略了一件事:事务性工作,其实是一种休息。

你有没有过这样的体验?一个下午不跟人说话,戴着耳机写代码、写文档、做表格——不需要推敲,不需要纠结,不需要在几个都不完美的选项里痛苦地权衡。你的手在动,你的大脑在低功耗巡航。那个状态不是”高效”,但它是一种稳态。它让你在那个下午过后,还能有精力去做一个艰难的troubleshooting。

现在这种”休息”被 Agent 吃掉了。

AI 替你写了代码,替你整理了文档,替你画了 PPT。你的工作时间里,事务性工作的占比越来越低。你被迫在更高比例的时间里停留在决策区——那个消耗巨大、容易焦虑、需要持续和自己辩论的区域。

我们用 AI 把体力活自动化了,却发现自己更累了。


三、AI 不是技术,是一种品质

我们先把 AI 放一边。

在 AI 时代之前,就有这样的事实:同一份工作,不同的人做,效率可以差十倍。不是因为智商差十倍,而是有一些人他们天然地会去问一个别人从来不问的问题——

“这件事有没有更好的做法?”

他们会自己去写脚本,把重复操作自动化;他们会去研究快捷键,让自己的手不离开键盘;他们会去搭建自己的笔记系统和信息流,把碎片知识织成网络;他们会去设计自己的工作流,然后不断地在跑的过程中调整它。不是因为有人要求他们这样做,而是他们受不了低效——他们本能地在寻找杠杆。

AI 时代之后,发生了什么变化?

什么都没变。同一批人,开始做同样的事。只不过这次的杠杆变成了——提示词工程、Harness编排、工具链串联、上下文管理。新的概念,新的技术栈,但底层驱动力是同一种:”我能不能让机器替我把这件事做了?”

所以我说:AI 不是一种技术,是一种品质。

技术只是载体。品质是什么?品质是——你看到一件重复的事情,心里会不会不舒服。技术会迭代,工具会更新,Power Automate可能死掉,但 Claude Code 会长出来。掌握这些工具需要学习成本,但愿意去学这些东西的人,从来都是同一群人。明天出现一个新范式,还是这一群人先学会。

这不是智商高低,这是本能。

创造高效 AI 工作流的方法论,本质上就是一句话:剥离事务性工作和决策性工作,把前者的 SOP 清晰地描述给 AI ,然后把省下来的精力和时间全部砸在后者上。

但这件事的难点不在 AI。它的难点在于——绝大多数人在第一步就卡住了。他们甚至没法描述自己”到底在做什么”。你问他你写代码的流程是什么,他说”我就打开VS Code 开始写啊”;你问他你的决策逻辑是什么,他说”看测试结果没问题就行啊”。把隐性知识显性化,这件事本身就极其困难。AI 的出现,只是把这种困难暴露了出来。

所以你会发现,能高效使用 Agent 的人,通常首先是善于复盘和总结的人。他能在脑中构建自己工作的元模型。这种能力在 AI 时代之前就已经让他脱颖而出,AI 只不过把这个差距放大了。

AI 不会创造差距,AI 只会暴露品质。


四、Agent 的必然:工程侧才刚刚开始

过去很多年,大模型本身没有什么本质性突破——我们没有看到比 Transformer 更精准高效的架构出现。有些科研者因此对 AI 的热情消退了下来,觉得”瓶颈到了””不过如此”。

但Agent 这件事情的意义,在大模型停滞的阶段才真正开始显现。

因为工程侧的优化才刚刚开始。

从技术视角看,Agent 可以被拆成两部分:LLM(大脑)+ Harness(手脚)。LLM 负责理解、推理和生成;Harness 负责执行——调度工具、管理上下文、处理错误、保持状态。这一套东西在配合上还有巨大的优化空间。

回看过去:Manus 的出现把”通用 Agent”这个想象点燃了,虽然产品层面还有争议,但它让所有人意识到”一个能自主干活的东西是可能的”。紧接着,OpenClaw、Claude Code 这些工程化做得很不错的工具开始冒出来——它们在具体场景里,已经能做到让一个开发者把大量事务性开发工作外包出去。

这一轮的关键不是 LLM 变聪明了,而是 Harness 层在快速补课。如何给 Agent 更好的工具调用接口?如何在长上下文中保持任务的连贯性?如何把复杂的 SOP 拆成可管理的小步执行?这些都是纯工程问题,不依赖 AGI 突破,但它们的组合效果,已经足够让 Agent 在很多场景下做到”够用”。

在这个基础上,我有一个更远的判断:当大量的人从事务性工作中被解放出来,把精力集中在决策性工作上时,这本身就会反哺大模型的本质提升。今天做基础模型研究的人,有多少时间花在开会、写文档、处理数据上?如果这些事能全部被 Agent 接管,他们聚焦到模型架构、训练策略、数据配比这些高价值问题上,突破的速度一定会加快。

未来大概率会有更 efficient 的架构,会大幅减少对算力和能源的消耗。但我想说的是——即使技术栈就停留在今天,不发生任何本质突破,Agent 也已经成为基础设施级别的东西了。它会像电、像网络、像云计算一样,无声无息地渗透到生活的每一个方面。你甚至不需要感知到它,它就在那里,替你干着你不想干的活。

有人说 Agent 是下一个平台级机会,我觉得说小了。Agent 是下一个操作系统——它坐在所有应用之上,替人完成操作。


五、缺的不是代码,是想法

最近我越来越习惯这样的思维模式——”这个任务应该可以让 AI 帮我做,但是我需要给它什么原始素材以及如何设计工作流呢?” —— 然后花一点时间把它搭出来。接下来只要有类似的任务,我就像有了一个虚拟的实习生,安静地替我把一件重复的事情做掉。

我也越来越意识到:这件事的瓶颈,不在技术。瓶颈是大多数人还没想清楚”我想让 AI 替我做什么”。

举几个案例:

  • 知识库整理的 Karpathy 学习法:读了很多文章,刷了很多视频,但都是散的。让 Agent 帮忙把这些碎片自动归类、去重、串联,生成一个私人知识图谱。你只管输入,整理的事情交给它。

  • 自动写 Slides:给 Agent 提供原始数据和工程文档,描述这次汇报的主要思路和想表达的要点,让Agent 去讲好这个 story , 绘制辅助观点的数据图表。AI 可以生成 Html 格式的 slides,比 PPT 更加美观和有交互性。

  • 自动整理邮件:每天早上收一份 Agent 生成的摘要,标注每封邮件的优先级和是否需要回复。大部分不需要动脑的邮件,Agent 甚至可以在草稿箱内写好回复等待你确认发送。

  • 自动做单元测试:Agent 读你的代码,理解逻辑,生成测试用例,跑通,发现失败再自己修。你只需要在 Review 的时候看一眼。

这些东西,现在就能做。缺的不是造轮子的能力,缺的是定义轮子应该长什么样的想象力。缺的不是写 Prompt 的技巧,缺的是愿不愿意坐下来花十分钟想清楚——”我到底在重复做什么?”


六、回到自己

所以,回到开篇那两拨人。

你可以继续把 AI 当新闻看。这没有任何问题。大多数人的工作目前还不会被立刻替代——不是因为 AI 不能,而是因为组织惯性和人性阻力比技术革新慢得多。你有时间,但不意味着你可以永远装作看不见。

你也可以选择 FOMO——每天焦虑地追着每一个新名词跑。但我也不建议。FOMO 消耗的是你的注意力,而注意力是你最重要的生产资料。

我想说的是第三种态度:把 AI 当成一种品质来培养。关键不是学习某个具体的工具,而是养成一种习惯——每当你要重复做一件事的时候,习惯性地问自己一句:”这件事,Agent 能替我做了吗?你不需要比所有人都强,你只需要比昨天的自己少做一件重复的事。

最后,用一句话收尾吧:

目前的 Agent 不会淘汰人。但会用 Agent 的人,会淘汰不会用的人。而会用 Agent 的人,从来都是那些本来就主动寻找更好方法的人——他们只是换了一个工具箱。