
我的第一个问题就是:养虾来干什么?有人说:“Why不Why的,能说清楚嘛”——大家都在养,有啥Why的。
养猫,人做铲屎官。养狗,给人看家护院。不同于猫猫狗狗,养虾(这个智能体),看不见摸不着,你真的有思考过拿来干什么用么?
如果你回答不上来,那不妨慢慢读完本文,思考一下本文中所涉及的观点,也许会对你有所启发。因为“养来干什么”决定了你怎么养——是随便在桌上摆个玻璃缸,还是搭建一套带过滤、恒温、供氧的专业虾缸。同样,构建AI智能体,如果一开始不清楚它的职责和边界,后续的架构设计、安全策略、资源投入都会失去方向。
本文将从“养虾”这个场景出发,带你系统性地理解:一个生产级的AI智能体,需要什么样的环境、能力、规矩和成长路径。无论你最终想养的是“观赏虾”还是“经济虾”,这套框架都能帮你养得活、养得好。
智能体如何影响周围的环境?——虾缸里的生态
一旦你构建了高质量的智能体,你将希望能够将它们与用户和其他智能体互连。智能体不是锤子那样等着你拿起来用的工具,也不是自动绕圈的扫地机器人。相反,你需要将工具连接到智能体——就像给虾缸接上过滤器、加热棒和灯光,让它具备感知和影响环境的能力。
智能体与人:虾与主人的互动
智能体与人类交互最常见的形式是通过用户界面。其最简单的形式是聊天机器人,用户输入请求,智能体作为后端服务处理它并返回文本块。更高级的智能体可以提供结构化数据,如 JSON,以支持丰富、动态的前端体验。人类参与(HITL)交互模式包括意图细化、目标扩展、确认和澄清请求。
以 OpenClaw 来说,你的聊天类应用就扮演了用户界面的作用——就像虾缸的观察窗,让你看清虾的状态,也能投喂指令。
计算机使用是一类工具,其中语言模型控制用户界面,通常有人类交互和监督。一个启用了计算机使用的智能体可以决定下一个最佳行动是导航到新页面、高亮显示特定按钮或使用相关信息预填表单——此时,智能体开始接管或托管你的计算机。
还可以通过控制UI的工具(MCP UI),或专门的UI消息传递系统(可以同步客户端状态与智能体,AG UI),甚至生成定制界面(A2UI)来实现。
当然,人与智能体的交互不仅限于屏幕和键盘。高级智能体正在打破文本障碍,通过“实时模式”进入实时、多模态通信,建立更自然、更像人类的连接。
这种能力从根本上改变了智能体与人类协作的性质。通过访问设备的摄像头和麦克风,智能体可以看到用户所看到的,听到用户所说的,并以模仿人类对话的延迟用生成的语音进行响应。这开启了一系列仅靠文本无法实现的用例,从技术人员在维修设备时获得免提指导,到购物者获得实时造型建议。它使智能体成为一个更直观、更易接近的伙伴——就像一位随行的“养虾顾问”,随时回答“水质怎么调”“虾不吃东西怎么办”。
智能体与智能体:虾与虾的共养
正如智能体必须与人连接一样,它们也必须彼此连接。随着企业扩大其AI的使用规模,不同的团队会构建不同的专业智能体。如果没有一个共同的标准,连接它们将需要构建一个由脆弱的、定制的API集成组成的复杂网络,这几乎不可能维护。核心挑战有两个方面:发现(我的智能体如何找到其他智能体并知道它们能做什么?)和通信(我们如何确保它们说同一种语言?)。
智能体对智能体(A2A)协议是为解决这个问题而设计的开放标准。它充当智能体经济的通用握手协议。A2A允许任何智能体发布一个数字“名片”,称为智能体卡。这个简单的JSON文件公布了智能体的能力、其网络端点以及与其交互所需的安全凭证。这使得发现变得简单且标准化。与专注于处理事务性请求的MCP不同,智能体对智能体的通信通常用于额外的解决问题。
一旦被发现,智能体使用面向任务的架构进行通信。交互被框架为异步的“任务”,而不是简单的请求-响应。客户端智能体向服务器智能体发送任务请求,然后服务器智能体可以在长时间连接上处理问题时提供流式更新。这种健壮、标准化的通信协议是拼图的最后一块,它使得协作式的、处于自动化前沿的层级3多智能体系统成为可能。A2A将一群孤立的智能体转变为一个真正的、可互操作的生态系统——就像在一个虾缸里,不同品种的虾各司其职(除藻、清残饵、翻底砂),协同维护缸内生态。
智能体与货币——让虾管钱?
随着AI智能体为我们处理更多任务,其中一些任务涉及买卖、谈判或促成交易。当前的网络是为人类点击“购买”而构建的,责任在人。如果一个自主智能体点击了“购买”,就会引发信任危机——如果出现问题,谁之过?这些是涉及授权、真实性和问责制的复杂问题。要解锁一个真正的智能体经济,我们需要新的标准,允许智能体安全可靠地代表用户进行交易。
正如那个著名的笑话:让 OpenClaw 赚回来购买Mac mini的钱,结果它把运行着它的Mac mini给卖了。
这个新兴领域远未成熟,但有两个关键协议正在铺平道路。智能体支付协议(AP2) 是一个开放协议,旨在成为智能体商业的权威语言。它通过引入加密签名的数字“授权书”来扩展像A2A这样的协议。这些授权书作为用户意图的可验证证明,为每笔交易创建了不可否认的审计跟踪。这允许智能体基于用户的授权,在全球范围内安全地浏览、协商和交易。与之互补的是 x402,一个开放互联网支付协议,它使用标准的HTTP 402“需要付款”状态码。它支持无摩擦的机器对机器微支付,允许智能体按需付费地支付API访问或数字内容等费用,而无需复杂的账户或订阅。这些协议共同为智能体网络构建了基础的信任层。
如果把智能体比作虾,那这笔“零花钱”就是它每天能消耗的鱼食——既不能饿着它,也不能让它撑坏,更不能让它自己偷偷去“买”更多食物。
一只虾拿钱包出门时的信任权衡——单个智能体安全
当你创建第一个AI智能体时,你立即面临一个基本的矛盾:效用与安全之间的权衡。为了让这只“虾”有用,你必须赋予它权力——做出决策的自主权,以及执行诸如发送电子邮件或查询数据库等操作的工具。然而,你授予的每一分权力都会带来相应的风险。主要的安全问题是恶意行为——无意或有害的行为——以及敏感数据泄露。你希望给这只“虾”的活动空间足够大,让它能完成工作,但又足够小,防止它跑偏,尤其是当涉及不可逆操作或公司私有数据时,比如让它“管钱”的时候。
为了管理这一点,你不能仅仅依赖AI模型的判断,因为它可能受到诸如提示注入等技术的操纵。相反,最佳实践是一种混合的、纵深防御的方法。第一层由传统的、确定性的护栏组成——一组在模型推理之外的硬编码规则,充当安全瓶颈。这可能是一个策略引擎,阻止任何超过100美元的“采购”,或者在智能体与外部API交互之前要求明确的用户确认。这一层为这只“虾”的权力提供了可预测的、可审计的硬性限制。
第二层利用基于推理的防御,用AI来帮助确保AI的安全。这包括训练模型使其对攻击更具韧性(对抗性训练),以及使用更小的、专门的“守护模型”,它们充当安全分析师。这些模型可以在智能体的计划执行前对其进行检查,标记潜在风险或违反策略的步骤以供审查。这种混合模型,将代码的刚性确定性与AI的上下文感知能力相结合,即使对于单个智能体也能创建强大的安全态势,确保其权力始终与其目标保持一致。
这个场景,就像你让一只虾拿着钱包出门买东西。你既希望它有足够的自主权(能付钱),又得给它明确的规矩(不能买超过100元的东西),还得教它识别坏人(不能被路边摊骗)。如果这只虾分不清“买虾粮”和“买钻石”的区别,那它出门前,你就得把钱包锁好。
你是谁?之前,是人还是虾?——身份确认
在传统的安全模型中,有使用OAuth或SSO的人类用户,也有使用IAM或服务账户的服务。智能体增加了第三类主体。智能体不仅仅是一段代码;它是一个自主的行为者,一种需要其自身可验证身份的新型主体。
这就引出了一个根本性问题:在身份体系里,这只“虾”到底算人,还是算服务?
答案:都不是。它需要自己的身份。
就像员工被发放ID工卡一样,平台上的每个智能体都必须被发放一个安全的、可验证的“数字护照”。这个智能体身份与调用它的用户以及构建它的开发者的身份是不同的。这是我们在企业中处理身份与访问管理(IAM)方式的一个根本性转变。
让每个身份都得到验证,并为所有这些身份设置访问控制,是智能体安全的基石。一旦智能体拥有一个可加密验证的身份(通常使用SPIFFE等标准),它就可以被授予自己特定的、最小权限的权限。SalesAgent被授予对CRM的读写权限,而HRonboardingAgent则被明确拒绝。这种精细控制至关重要。它确保即使单个智能体被攻破或行为异常,潜在的爆炸半径也受到限制。
如果没有智能体身份,这只“虾”就只能依附于人的身份行事——就像让虾拿着你的银行卡去取钱,它一旦被坏人利用,损失的就是你的账户。而有了自己的身份,你给它的只是一张限额100元的“虾用副卡”。
约束访问的策略——被允许做什么?
如果说身份解决的是“你是谁”的问题,那么策略解决的就是“你能做什么”。
策略是授权(AuthZ)的一种形式,区别于认证(AuthN)。通常,策略限制主体的能力;例如,“市场部的用户只能访问这27个API端点,并且不能执行DELETE命令。”随着我们开发智能体,我们需要将权限应用于智能体、它们的工具、其他内部智能体、它们可以共享的上下文以及远程智能体。
这样想:如果你将所有的API、数据、工具和智能体都添加到你的系统中,那么你必须将访问权限限制在它们完成工作所需的那部分能力子集。这是推荐的方法:在保持上下文相关性的同时应用最小权限原则。
这就好比给虾缸里的不同虾分配“活动范围”——清道夫虾可以在底层活动,观赏虾只能在中层游动,谁也不能越界去碰加热棒的电线。你不需要告诉虾“为什么不能碰电线”,你只需要让它们“碰不到”。策略就是那道物理隔板。
从一只虾繁衍到一缸虾
单个AI智能体的生产成功是一个胜利。扩展到数百个智能体则是一个架构上的挑战。从一只虾到一缸虾,你要面对的不再是“怎么喂好这一只”,而是“怎么维持整个生态系统的平衡”。
如果你正在构建许多智能体,你必须设计系统来处理更多问题。就像API蔓延一样,当智能体和工具在组织中激增时,它们会创建一个新的、复杂的交互、数据流和潜在安全漏洞网络。管理这种复杂性需要一个更高阶的治理层,将所有身份、策略整合起来,并报告到一个中央控制平面。
安全与隐私:加固智能体前沿——碰不到电线
智能体最终必须解决生成式AI固有的独特安全和隐私挑战,即使只运行一个智能体也是如此。智能体本身成为一个新的攻击向量。恶意行为者可以尝试提示注入来劫持智能体的指令,或进行数据投毒来污染其用于训练或RAG的信息。此外,一个约束不当的智能体可能会在其响应中无意中泄露敏感的客户数据或专有信息。
智能体治理:控制平面而非蔓延
随着智能体及其工具在组织中激增,它们会创建一个新的、复杂的交互和潜在漏洞网络,这一挑战常被称为“智能体蔓延”。管理这一点需要超越保护单个智能体,转向实施更高阶的架构方法:一个作为所有智能体活动控制平面的中央网关,OpenClaw正是采用这样的设计。
从安全角度出发,这个控制平面需要有两个主要的、相互关联的功能:
- 运行时策略执行:
它作为实施安全的架构瓶颈。它处理认证(“我知道这个行为者是谁吗?”)和授权(“他们有权这样做吗?”)。集中执行提供了可观测性的“单一管理平台”,为每笔交易创建共同的日志、指标和追踪。这将分散的智能体和工作流的“意大利面条”转变为一个透明、可审计的系统。 - 集中治理:
为了有效执行策略,网关需要一个事实来源。这由一个中央注册表提供——一个面向智能体和工具的企业应用商店。这个注册表允许开发者发现和重用现有资产,防止重复工作,同时为管理员提供完整的清单。更重要的是,它支持智能体和工具的正式生命周期,允许在发布前进行安全审查、版本控制,以及创建精细策略,规定哪些业务部门可以访问哪些智能体。
通过将运行时网关与中央治理注册表相结合,组织将混乱蔓延的风险转变为一个可管理、安全、高效的生态系统。
从养一只虾到养一缸虾,你需要的不再只是一个缸,而是一套完整的生态系统:水质监测、温度控制、过滤循环、分区分养、繁殖管理。同样,从单个智能体到智能体集群,你需要的是一个中央控制平面——相当于虾缸的“智能中控系统”。
成本与可靠性:虾缸的基础设施
智能体的运行环境,如同养虾的缸,必须既可靠又具有成本效益。 一个频繁失败或结果缓慢的智能体具有负投资回报率。相反,一个过于昂贵的智能体无法扩展以满足业务需求。底层基础设施必须设计为管理这种权衡,并确保安全以及符合法规和数据主权要求。
你的计算资源规划,够支撑这样的“虾缸”吗?
养龙虾经济学:你的AI agent,需要多大的coding plan?
通过提供这种基础设施选项的谱系,并结合对成本和性能的全面监控,你为将AI智能体从有前途的创新扩展到业务核心、可靠的组件,奠定了最后、也是必不可少的基础。
龙虾如何演化与学习——正如小猫小狗一样
部署在现实世界中的智能体在动态环境中运行,其中策略、技术和数据格式不断变化。如果没有适应的能力,智能体的性能会随着时间的推移而下降——这个过程通常被称为“老化”——导致效用和信任的丧失。手动更新大量智能体以跟上这些变化既不经济又缓慢。一个更具可扩展性的解决方案是设计能够自主学习和演化的智能体,在最少的工程投入下,在工作中提高其质量。
智能体如何学习与自我演化
与人类一样,智能体从经验和外部信号中学习。这个学习过程由几个信息源驱动:
- 运行时经验:
智能体从运行时工件中学习,例如会话日志、追踪和记忆,这些捕获了成功、失败、工具交互和决策轨迹。至关重要的是,这包括人类参与(HITL)反馈,它提供了权威的纠正和指导。 - 外部信号:
学习也由新的外部文档驱动,例如更新的业务策略、公共监管指南或其他智能体的批评意见。
然后,这些信息被用来优化智能体未来的行为。高级系统不是简单总结过去的交互,而是创建可泛化的工件来指导未来的任务。最成功的适应技术分为两类:
- 增强的上下文工程:
系统持续优化其提示、少样本示例以及从记忆中检索的信息。通过为每项任务优化提供给语言模型的上下文,它增加了成功的可能性。 - 工具优化与创建:
智能体的推理可以识别其能力中的差距,并采取行动来填补这些差距。这可能涉及获得对新工具的访问权、即时创建一个新工具(例如,一个Python脚本),或修改现有工具(例如,更新API模式)。
其他优化技术,如动态重新配置多智能体设计模式或使用人类反馈强化学习(RLHF),是活跃的研究领域。
模拟与智能体训练场——下一个前沿,龙虾健身房?
目前,前沿研究人员正在探索更先进的方法,即构建一个专用平台,旨在通过先进的工具和能力,在离线流程中优化多智能体系统,而这些工具和能力并不属于多智能体运行时环境的一部分。这种“智能体训练场”的关键属性如下:
它不在执行路径中。它是一个独立的非生产平台,因此可以获得任何语言模型、离线工具、云应用等更多资源的辅助。 它提供了一个模拟环境,因此智能体可以基于新数据进行“演练”和学习。这个模拟环境非常适合通过多种优化路径进行“试错”。 它可以调用高级合成数据生成器,引导模拟尽可能接近真实情况,并对智能体进行压力测试(这可以包括先进技术,如红队测试、动态评估和一系列批评智能体)。 优化工具库不是固定的,它可以采用新工具(要么通过开放协议如MCP或A2A),或者在更高级的设置中——学习新概念并围绕它们打造工具。 最后,即使是像智能体训练场这样的构造,也可能无法克服某些边缘情况(由于企业中存在众所周知的“部落知识”问题)。在这些情况下,我们看到智能体训练场能够连接到由领域专家组成的“人脉网络”,并就正确的指导结果集进行咨询,以引导下一轮优化。
如果你把智能体当猫狗一样养,那它也会像猫狗一样成长——通过训练、反馈和适应,学会新技能,改掉坏习惯。而“智能体训练场”,就是它的“学校”和“游乐场”。
结论
生成式AI智能体标志着一个关键的演进,它将人工智能从被动的内容创作工具,转变为主动的、自主的问题解决伙伴。本文档提供了一个正式的框架,用于理解和构建这些系统,超越了原型阶段,旨在建立可靠、生产级的架构。
回到开篇的问题:你养来干什么?答案决定了你需要的虾缸(基础设施)有多大、规矩(安全策略)有多严、食物(计算资源)有多贵,以及你愿不愿意花时间训练它长大。如果你只是想养着玩,一个玻璃杯也能凑合;但如果你指望它帮你干活、管钱、解决问题,那就需要一套真正的工程化体系。
我们将智能体解构为三个基本组成部分:推理模型(“大脑”)、可执行的工具(“手”)和管控的编排层(“三观”)。正是这些部分的无缝集成,在一个持续的“思考、行动、观察”循环中运行,才释放了智能体的真正潜力。
核心挑战和机遇在于一种新的开发者范式。我们不再是定义显式逻辑的“砖瓦匠”;我们是必须指导、约束和调试自主实体的“架构师”和“导演”。
使语言模型如此强大的灵活性,也正是其不可靠性的根源。因此,成功并非仅在于最初的提示,而在于应用于整个系统的工程严谨性:健壮的工具契约、有韧性的错误处理、精密的上下文管理以及全面的评估。
本文概述的原则和架构模式作为基础蓝图。它们是指引我们驾驭软件新前沿的路标,使我们能够构建的不仅仅是“工作流自动化”,而是真正具备协作性、能力出众且适应性强的团队新成员。随着这项技术的成熟,这种有纪律的、架构性的方法将成为充分发挥智能体AI全部潜力的决定性因素。
💬 聊聊你的“养虾”经验我们聊了智能体的架构、安全和治理,但每个团队面临的实际问题都不一样。你在构建或使用AI智能体的过程中,遇到过最棘手的“非技术问题”是什么?(比如:业务部门不信任、资源分配不足、合规审批卡壳……)欢迎分享你的经历和解决思路,帮更多同行避坑。
夜雨聆风