乐于分享
好东西不私藏

LangChain10亿下载之后创始人Harrison Chase :AI Agent底层正在被重写

LangChain10亿下载之后创始人Harrison Chase :AI Agent底层正在被重写

已关注

关注

重播 分享

三年前,一个程序员在周末写了个小工具,用来更方便地调用大语言模型。

三年后,下载量突破了 10 亿次

它叫 LangChain。创始人 Harrison Chase 刚被 NVIDIA 请去录了一期深度访谈。

聊的不是代码——是 AI Agent 的「底层架构」正在被重写。这对不用写代码的你,关系比想象的大。

为什么大模型越来越强,你的 AI 助手还是那么笨?

过去两年,模型能力一路飙升。从 GPT-3.5 到 GPT-4 到各家旗舰——参数翻了几十倍。

但一个尴尬的现实是:你让 AI 完成一件需要 5 步的事,它走到第 3 步就忘了前面干过什么。

Harrison Chase 在 NVIDIA 访谈里直指根源:不是模型不够聪明,是给模型的环境太差了。

他说了一句很精辟的话——「When agents mess up, it’s because they don’t have the right context; when they succeed, it’s because they have the right context.」

翻译成人话:你的 AI 助手就像一个智商 150 但被关在空房间里的人——没有笔记本、没有日历、不知道 5 分钟前干了什么。

Chase 把这叫「Context Engineering」(上下文工程)——核心意思很简单:把正确的信息,以正确的格式,在正确的时间点,喂给 AI。

就像给 AI 配了一个随时能翻笔记本的私人秘书——以前它只能记住两句对话,现在可以翻阅文件、记笔记、回看工作。

Chase 的判断是:AI 行业正从「拼模型能力」进入「拼 Agent 架构」的阶段。这直接改变每个人使用 AI 的方式。

下面是他点出的三个最重要趋势。

趋势一:从「对话机器人」到「会干活的助理」

Chase 讲了一个很有意思的「反面教材」——AutoGPT。

2023 年,AutoGPT 一度是 GitHub 上增长最快的项目——「能自己分解任务、自己执行的 AI」。它的架构跟今天最先进的 Agent 框架几乎一样:让模型循环运行,调用工具,自己决定下一步。

但 AutoGPT 很快偃旗息鼓。Chase 的解释一针见血:当时的模型「低于有用性阈值」——架构对,但模型还撑不起来。

到了 2026 年,模型已跨过那道门槛。于是 Chase 团队做了 Deep Agents 开源框架——目前最接近「会干活的助理」的 Agent 架构。

核心不同:Agent 能在几十步甚至上百步的任务中保持方向感。 它能规划、在虚拟文件系统里做笔记、自己管理上下文。

这意味着:你不再需要把每个任务拆成「一问一答」。跟 AI 说「帮我调研最近三个月 AI 视频工具趋势,整理成含案例的报告」——它真的会自己去搜、去读、去汇总。

对内容创作者来说,这是从「工具」到「助理」的质变。

趋势二:从「一个巨大的说明书」到「模块化技能包」

Chase 提到的第二个变化,最容易被非技术人忽略:

AI 的系统提示词(System Prompt)正在从「越写越长」变成「越写越精简」。

过去给 AI 下指令,恨不得把所有规则、偏好、边界一股脑塞进一个巨长的提示词——几千字甚至几万字。结果 AI 被淹没,关键信息反而稀释了。

Chase 的「Skills(技能)」模式翻了一个方向:只给 AI 一个极简核心——「你是谁、要干什么」——剩下的具体能力,像插件按需加载。

需要写公众号时,AI 自己去读「写公众号」这份技能定义;需要分析数据时,调「数据分析」技能包——永远不会一次性全塞进脑子。

这就像一个真人助理。 好助理不用背诵整本公司制度——遇到报销翻报销流程,遇到投诉调处理规范。平时只记自己是谁、为谁工作、核心原则。

对创作者来说,这意味着:未来的 AI 工具会越来越懂你的细分需求,而不是给你「万金油式」的通用回答。

一个帮你写小红书文案的 Agent,和一个排公众号的 Agent,内在可能同一套 Deep Agents 架构,但各自加载了完全不同的技能包。

趋势三:从「一个人干所有活」到「一支 Agent 团队」

Chase 反复提到的另一个设计:子 Agent(Subagents)。

主 Agent 不是超级大脑把所有活干完,而是一个「项目经理」——它把子任务分包给不同的专项 Agent。

比如你让 AI 做一期视频内容策划:– 主 Agent 先做计划——需要研究热点、分析竞品、写脚本;– 同时派出 3 个子 Agent——一个搜热点、一个分析同类视频、一个写脚本;– 三个子 Agent 各自在「小房间」里工作,互不干扰;– 完成后交结果给主 Agent,主 Agent 汇总润色,交付最终方案。

关键设计:子 Agent 的工作过程「上下文隔离」。 大量中间数据不污染主 Agent 的「脑子」——主 Agent 只看到压缩后的结果。

用大白话说:让大脑想大事,让手脚做细活。

这意味着:当你让 AI 处理「帮我规划下个月 5 篇选题,每篇都要有数据和竞品分析」这类复杂任务——你不会再得到粗糙的一锅炖,而是有层次、经得起推敲的结果。

Chase 一句话很值得记住:「Building agents is different than building software.」 软件追求确定性和可控,Agent 追求的是在不确定中保持方向感。

给创作者的 3 条选 Agent 原则

基于 Chase 的这些观点,我提炼出 3 条适用于创作者的 Agent 选型原则。你不一定要懂代码,但这 3 条能帮你在面对市面上几十种 Agent 工具时,做出正确的判断。

原则 1:看它能不能「记住」

一个合格的 Agent,不是只会回答问题。你得看它能不能在跨步骤的任务中保持记忆——它有没有自己的「笔记本」?换到下一个环节时,它还记得上一个环节做了什么吗?

如果它每次换话题都像第一次见你——那就还不是 Agent,只是 chatbot。

原则 2:看它是「万金油」还是「专才」

Chase 强调的「Skills」模式给了一个重要启发:好用的 Agent 不是无所不能的,而是你告诉它该干什么它就干什么。

一个声称「什么都能干」的 Agent,往往什么都干不好。选那些能让你自定义技能、加载专项能力的工具——哪怕一开始配置起来多花 10 分钟。

原则 3:看它能不能「自己检查自己」

Chase 反复强调 Trace(可追踪性)和 Observability(可观测性)。翻译成创作者语言就是:Agent 做每件事的过程,你能看到吗?

如果一个 Agent 交给你一个结果,但你看不到它的推理过程、决策依据、中间步骤——你没法判断这个结果靠不靠谱。能「展示工作」的 Agent,比一个只会给结论的 Agent 更值得信赖。

你现在用的 AI 工具,是那种一问一答的对话机器人,还是一个能自己拆任务、盯进度、交付东西的助理?

评论区说说你更想要哪一种。如果你已经在深度用某个 Agent 工具了——也说说它靠不靠谱,踩过什么坑。

参考资料:NVIDIA AI Podcast (2026-05-06)、VentureBeat Beyond the Pilot (2026-03)、LangChain 官方、TechBuddies (2026-03-08)

Huintellimance

让未来智能早日来临

促进人类与未来智能沟通交流平台

全网|Huintellimance

 加入交流群·