
一个月以来,OpenClaw几乎刷屏了。
先是GitHub星数飙到25万,超过Linux内核;接着黄仁勋在GTC现场说它是"人类历史上最受欢迎的开源项目";然后各种解读铺天盖地——有人说是"中国团队的Manus杀手",有人说是"程序员终结者",还有人开始盘点概念股。
但大多数讨论都漏掉了一个关键点:黄仁勋明确定义了OpenClaw不是什么工具,也不是什么框架,而是"Agent计算机的操作系统"。
"Open Claw as open sourced, essentially the operating system of Agent computers."
这句话很重要。工具只能做一件事,操作系统能孕育一个生态。Windows让个人电脑普及,OpenClaw要让个人Agent普及。理解了这个定位,才能真正看清它对企业IT架构的影响。
操作系统四要素:OpenClaw的架构内核
黄仁勋在演讲中用操作系统的四个核心能力,逐条拆解了OpenClaw的架构。咱们一条条看。
1. 资源管理:Agent成为新的调度中枢
"It has resources that it manages. It can access tools, it can access file systems, it can access large language models."
传统的数据Pipeline里,资源调度靠的是Airflow、crontab或者自研的调度系统。人写脚本,系统按时间表执行。
OpenClaw的逻辑不一样。Agent直接接管资源:能读文件系统,能调API,能连各种工具,也能调用大模型。它不再是一个被执行的脚本,而是资源的主动管理者。
对企业架构来说,这意味着权限模型要重新设计。以前是一个服务账号跑一堆任务,现在是一个Agent在动态决定访问什么、访问多少。数据权限的边界从"人能看什么"变成"Agent能调什么"。
2. 调度执行:从定时任务到自主决策
"It's able to do scheduling. It's able to do cron jobs."
表面看还是调度,但本质变了。
cron jobs是按固定时间表执行:每天凌晨2点跑批,每小时同步一次数据。OpenClaw的调度是事件驱动+自主决策的:Agent判断条件满足,才触发下一步;一个任务失败了,它能自己决定重试还是跳过;遇到依赖阻塞,它能动态调整执行顺序。
黄仁勋在现场举了一个例子:
"Give an AI agent a task, go to sleep. It runs a hundred experiments overnight, keeping what works and killing what doesn't."
这是Andrej Karpathy在用的场景。给一个研究任务,Agent整晚运行100个实验,保留有效的,淘汰无效的。没有固定时间表,只有一个目标,Agent自己决定怎么调度资源达成目标。
对数据团队来说,这种能力意味着ETL Pipeline可以进化了。不再是"按表执行",而是"按目标执行"。
3. 子进程管理:复杂任务的分解与协作
"It's able to decompose a problem... it could spawn off and call upon other sub-agents."
这是操作系统最经典的能力:fork子进程。
OpenClaw把这个能力带给了Agent。一个复杂任务进来,父Agent把它拆解成几个子任务,spawn出几个子Agent并行执行,最后汇总结果。子Agent还可以继续spawn孙Agent,形成树状的执行结构。
这和微服务架构有点像,但有一个关键区别:微服务是静态部署的,Agent是动态生成的。
你需要的时候,Agent才被创建;任务完成了,Agent就销毁。不需要维护一个常驻的服务集群,也不需要预先定义好服务间的调用关系。Agent之间的协作是临时的、任务驱动的。
对架构师来说,这既是机会也是挑战。机会是资源利用率可以更高;挑战是调试和监控会变得复杂——一个请求可能经过几十个Agent的手,链路追踪怎么做?
4. I/O系统:多模态交互的统一入口
"It has I/O. You could talk to it in any modality you want. You could wave at it and it understands you."
操作系统管理键盘、鼠标、显示器;OpenClaw管理各种交互方式:文本、语音、图像,甚至手势。
对企业应用来说,这意味着交互入口的统一。以前你要查数据,可能得登录BI系统;要提需求,得发邮件或者填工单;要审批,得打开OA。以后这些都可以通过一个Agent入口完成,Agent自己决定调哪个系统、用什么方式返回结果。
黄仁勋说的是"wave at it",但企业场景里更可能是:对着手机说一句"给我看一下上周的销售数据",Agent自动查询、分析、生成图表,然后发到你邮箱。
从文件到Token:IT架构的代际转移
理解了OpenClaw的架构,再看黄仁勋描述的整体IT范式转移,会更清晰。
旧范式:以文件为中心的IT
"Enterprise IT before open cloud... large rooms, these large buildings held data, held the files of people, the structured data of business."
这是过去几十年的主流模式:
数据存在文件系统里,不管是数据库的表、数据湖的parquet,还是Excel文件,本质上都是文件。人通过各种工具软件访问这些文件:SQL客户端、BI工具、Excel。人加工数据,产生新的文件,存回去。
软件公司的商业模式是卖工具:卖数据库license,卖BI软件的订阅,卖ERP的实施服务。人使用工具,工具处理文件,文件承载业务。
新范式:以Token为中心的AI工厂
"Your data center, it used to be a data center for files. It's now a factory to generate tokens."
黄仁勋说的"AI工厂",核心产出不再是文件,而是Token。
这里的Token不只是大模型里的token,更广义地理解,是智能的基本单位。Agent消耗Token来思考、执行、生成结果。数据中心的KPI从"存储了多少PB数据"变成"每瓦特电力能产生多少Token"。
业务流程也变了:以前是"人看报表→人做决策→人执行",现在是"Agent读取数据→Agent分析→Agent执行"。人变成监督者和目标设定者,执行层交给Agent。
黄仁勋举了一个工业场景:
"He installed it as a sixty-year-old dad... connected the machine via Bluetooth to OpenClaw. And then we automated everything, including the whole test for people to work."
一个60岁的非技术人员,通过蓝牙把机器连上OpenClaw,然后整个测试流程就自动化了。没有写代码,没有配工作流,就是告诉Agent要做什么。
这种自然语言驱动的自动化,是文件时代做不到的。
转移的必然性:百万倍计算增长
为什么要变?因为计算需求变了。
黄仁勋给了一个数字:
"I believe that computing demand has increased by one million times in the last two years."
过去两年,AI计算需求增长了100万倍。不是100倍,不是1000倍,是100万倍。
背后是AI的三级跳:从感知AI(能识别),到生成式AI(能创造),再到推理AI(能思考)。每一跳,计算需求都上一个数量级。现在到了Agentic AI(能执行),计算需求更是爆炸。
传统的文件处理架构,根本扛不住这种计算密度。必须转向Token工厂架构,让Agent成为计算和调度的主体。
企业落地路径:从实验到生产
理解了架构逻辑,再看企业怎么落地。黄仁勋的描述里,其实给出了清晰的三阶段路径。
阶段一:实验验证——降低尝试门槛
黄仁勋反复强调OpenClaw的部署有多简单:
"You simply type this into a console and it goes out, it finds OpenClaw, it downloads it, it builds you an AI agent and then you can tell it whatever else you want to do."
一行命令,一个Agent。这和当年Docker的"一行命令启动容器"很像,降低的是尝试门槛。
企业落地的第一步,就是找个非关键业务场景,验证Agent的自主执行能力。黄仁勋提到的几个案例都值得参考:
工业测试自动化(60岁父亲案例)
研究实验的并行执行(Andrej的100个实验)
商业排队管理(苏黎世龙虾店)
这些场景的共同点:任务定义清晰,失败成本低,但重复性高。适合验证Agent能不能"把事办好",而不是"听懂人话"。
阶段二:安全架构——解决企业级顾虑
实验成功后,要进生产环境,必须先解决安全问题。黄仁勋在这个话题上突然严肃:
"Agent systems in the corporate network can have access to sensitive information, they can execute code, and they can communicate externally. Just say that out loud, okay? Think about it: access sensitive information, execute code, communicate externally."
三个能力,三个巨大的风险:
数据泄露:Agent能访问员工信息、供应链数据、财务数据
代码执行:Agent能在企业系统内执行任意代码
外联通信:敏感数据可能被发送到外部
黄仁勋说:"Obviously this can't possibly be allowed."(这显然不可能被允许。)
所以NVIDIA推出了NeMo Claw:
"We worked with Peter to make OpenClaw enterprise secure and enterprise capable. We call that this is our Nvidia Open Claw reference for Open Nemo Claw."
三层防护:
Open Shell集成:提供安全的运行时环境
网络护栏(network guardrail):控制Agent的网络访问范围
隐私路由器(privacy router):管控敏感数据的流向
企业可以接入自己的策略引擎,定义Agent的行为边界。哪些数据能访问,哪些API能调用,哪些操作需要人工审批,都可以通过策略配置。
阶段三:规模化运营——重构成本模型
安全问题解决后,就是规模化。这时候会碰到一个新的管理问题:Token预算。
黄仁勋在NVIDIA的做法是:
"Every single engineer in our company will need an annual token budget... I am going to give them probably half of that on top of it as tokens, so that they could be amplified ten times."
每个工程师有一个年度Token预算,作为基本工资的补充。目标是让工程师的生产力放大10倍。
这对企业的运营逻辑有几个冲击:
薪酬结构变了:从"基本工资+股票"变成"基本工资+Token预算"。Token成为新的福利和竞争力指标。
绩效考核变了:从"写了多少行代码"变成"消耗了多少Token、产出了多少结果"。
采购逻辑变了:从"买软件license"变成"买Token算力"。
黄仁勋甚至说,这已经成为硅谷的招聘卖点:
"It is now one of the recruiting tools in Silicon Valley: How many tokens comes along with my job?"
写在最后
回到开头的问题:OpenClaw到底是什么?
黄仁勋的判断很明确:
"It is no different than how Windows made it possible for us to create personal computers. Now OpenClaw has made it possible to create personal agents."
它不是工具,不是框架,是操作系统。操作系统不会直接帮你完成某个具体任务,但它让完成任务的生态成为可能。
对企业IT架构来说,这意味着:
数据权限模型要从"人能看什么"变成"Agent能调什么"
Pipeline设计要从"按表执行"变成"按目标执行"
交互入口要从"多个系统"变成"统一Agent"
成本模型要从"买软件"变成"买Token"
这些变化不会一夜之间发生,但方向已经明确。黄仁勋的判断是:
"It is that important. It will do well."
对数据工程师和架构师来说,现在该做什么?
短期:在本地环境部署OpenClaw,理解Agent调度逻辑,别光看热闹,亲手试一下一行命令启动Agent是什么感觉。
中期:评估企业的安全策略,准备NeMo Claw架构,想清楚数据边界和权限模型怎么设计。
长期:重构数据Pipeline的思路,从"人编排任务"转向"Agent自治执行"。
Agent时代,从OpenClaw开始。
参考资料:NVIDIA GTC 2026 Keynote 演讲原文
演讲者:Jensen Huang(黄仁勋)

往期推荐

点个在看你最好看
SPRING HAS ARRIVED

夜雨聆风