本文来自企业内部约稿,撰稿者为清瑶智能CTO戴彬,分享他对OpenClaw及金融“养虾”的看法。
OpenClaw 给金融行业落地AI
带来哪些启示?
首先,我们需要客观看待 OpenClaw 的出现与走红。坦白说,让大模型调用工具、通过API完成任务的思路,并非全新的技术方向。从早期的AutoGPT使用各种函数调用(Function Calling)的探索,到后来的MCP等,业界早就验证过这个方向。OpenClaw也确实依赖大量的插件(plugins)或者技能(skills)来工作。
那么OpenClaw为什么能火?我认为它最大的贡献,不是发明了什么新技术,而是把过去停留在实验室和开发者圈子的“智能体”概念,真正摆到了普通用户面前,让大家直观地感受到“AI能替我干活”是什么体验。
在我看来,OpenClaw的火爆给金融行业带来了两个层面的启示,一正一反,都很有价值。
1.正面启示
当AI能够充分调用平台的各种业务接口时,它能产生的Impact和商业价值是指数级上升的。
过去,我们把AI当做一个“顾问”——它可以给出建议,但执行还得靠人。顾问说得再好,活还是得自己干。
现在,如果AI能直接调用我们系统的各种接口,它就从一个“建议者”变成了一个“执行者”。更重要的是,它可能成为一个跨部门的“指挥中心”。
以保险理赔场景为例,接到报案后,AI可以自动调取保单系统确认有效性,通过理赔接口查询历史记录,调用理算引擎计算赔付金额,生成完整的理赔审批单,然后直接推送给复核人员。人只需要做最后的确认。
这不仅仅是效率的提升,更是业务流程的重构。如果AI能成为那个“打通部门墙”的协调者,完全有可能把3-5天的理赔周期压缩到几小时甚至分钟级。
这才是金融AI应该追求的“Impact”:不要只满足于让AI会“思考”,更要让它会“干活”——而且是把过去需要多人协作的活,用一个“指挥中心”串起来干完。
2.反面启示
但硬币皆有两面:OpenClaw 的翻车案例为金融行业敲响警钟 —— 有人一夜消耗数亿 Token 产生天价账单,有人因权限配置不当误删核心文件,更有隐私数据在不知情的情况下被上传。这些问题在 C端仅为 “花钱买教训”,对金融行业而言却是不可承受的风险。
这提醒我们:在追逐新范式、探索AI深度嵌入业务流程的时候,风险意识必须同步升级。 当AI从“建议者”变成“执行者”,风险边界就完全不一样了,可能造成直接的损失,甚至引发合规风险。
所以,OpenClaw给金融行业的启示是两面的:既要看到AI作为“指挥中心”重构业务流程的可能性,也要清醒地认识到,权限管控、成本控制、操作审计这些“护栏”,必须与技术同行。
金融行业的“小龙虾”应该满足
哪些条件?
企业级的“小龙虾”和C端产品完全是两码事,甚至可以说是两个物种。
C端的逻辑是“幸存者偏差”带来的社交媒体狂欢。一批用户在各自稀奇古怪的任务上取得了不错的效果,他们就会在社交媒体上热烈交流经验。另一批用户可能失败了,但这无伤大雅,就当个玩具扔在一边。还有一部分可能暴露了安全问题,比如隐私泄漏、误删邮件,但损失通常是个人的,影响有限。某种意义上,这种参差不齐的效果反而加剧了讨论,让产品更火。
但金融行业完全不同。我们需要算一笔更细致的账。
假设我们把某项任务交给“小龙虾”,它的成功率是90%——说实话,在复杂的金融业务流程中,这已经是一个相当乐观的估计了。那剩下的10%会发生什么?有两种可能:要么是任务失败、流程中断,需要人工介入处理;要么更糟糕——任务以错误的结果呈现出来,比如金额算错、结论给反,造成真金白银的损失。
但问题远不止这10%的失败率本身。为了把这10%的“雷”排掉,我们必须投入额外的人力去找到那些有问题的场景。这可不是“原来10%的工作量”,而是“原来10%的工作量 + 把问题场景找出来的工作量”。你需要有人盯着AI干活,需要有人复核它的每一个关键输出,需要有人在它出错时回溯整个决策链路。这本身就是一笔巨大的成本。
更关键的是,整个工作流程都要被重塑。原来人干活的流程是稳定的、可预期的;现在引入AI后,流程变了,人怎么配合、系统怎么对接、异常怎么处理,全都要重新设计。这种迁移成本、迁移过程中的不确定性,以及迁移完成后的实际成本到底是升是降——坦白说,在真正跑起来之前,都是未知数。
这就是为什么金融行业对这类新技术总是显得“克制”。不是因为保守,而是因为我们见过太多“看上去很美”的技术,最后算下来总成本不降反升。
所以,我认为企业级或者金融行业的“小龙虾”必须满足两个核心条件:
第一,它必须以一个“合理的工作流程”出现,核心是“人机配合”,而非“人机替代”。
它不能是一个把事都干了但可能出错的“黑箱”。更好的形态是,它作为一个“超级实习生”,负责把繁琐的脏活累活干完80%,然后把需要判断、复核的关键节点,清晰地提交给人类专家。人和AI形成一种高效的配合关系,既提升了效率,又保证了关键决策的质量。我们要的不是“替代人”,而是“让人更值钱”——让人从重复劳动中解放出来,去做那些更有判断含量的事。
第二,它的风险必须“绝对可控”。
这意味着权限必须是最小化的,每一步操作都必须是可审计、可追溯的。它不能像C端那样,为了便利牺牲安全。在企业里,安全永远是1,效率是后面的0。没有前面的1,再多的0也没有意义。我们要能回答一个问题:如果AI做错了,我们能不能知道它为什么错、在哪里错、怎么避免下次再错?
金融行业该如何“养虾”?
OpenClaw这类智能体技术的最大价值,可以用一句话概括——它给了模型一双手。过去的大模型只有“大脑”,能思考、能对话,但没法真正动手干活。
智能体通过调用接口、操作计算机,让模型有了“执行”的能力。但如果我们想把这样的智能体真正落地到金融行业,光有“手”远远不够。在复杂的业务场景中,它还需要具备另外两个更高阶的能力:第一,可合作;第二,会学习。没有这两点,它就只是一个“会干活但不好配合、不会成长”的工具,无法真正融入业务流程。
先说“可合作”。正如前文在讨论“人机配合”时提到的,人与AI的配合是金融落地的核心——AI负责那些繁琐的脏活累活,人负责关键决策的把关。但这种“可合作”不是自然而然发生的,它需要通过精心的流程设计来实现。这里面有两个问题需要回答:
第一,交接的决策权怎么定?不能全靠AI自己判断什么时候该交给人。更稳妥的方式是“人预设关键节点,AI在节点间自主执行”——业务流程中那些必须由人把关的环节,由人提前设定为“强制审核点”。AI可以在节点之间自由发挥,但每到节点就必须停下来,把结果交给人类审核。这样既给了AI自主空间,又确保了关键决策始终掌握在人手中。
第二,AI怎么把结果交给人? 不能只是一个黑箱结论。真正可合作的AI,必须能展示清晰的决策链路——我调取了哪些数据、基于什么规则、经过了什么计算、为什么得出这个结论。这样人类复核员才能快速理解、准确判断,而不是从头再做一遍。
再说“会学习”。 图灵奖得主Rich Sutton有一个核心观点:真正的智能源自从经验中学习(learning from experience)——智能体通过与世界交互、获得反馈,从中生成新的知识。
把这个理念放到金融场景中:假设一个Agent今天的成功率是80%,在实际工作中它会收到大量人类反馈。问题在于:它能不能从这些反馈中真正学习、持续进化?
目前这一问题在技术层面,尚未形成像大模型 scaling law 那样清晰、成熟的实现路径,仍存在大量探索空间和技术难点。但可以确定的是:让智能体在真实业务流程中跑通闭环,是为其打造可学习、可进化环境的关键前提。
再总结一下:OpenClaw 让模型拥有了 “执行之手”,但要在金融行业真正创造价值,智能体还必须做到可合作、会学习。能执行、可合作、会学习三者兼备,才是合格的 “数字员工”。前两步已有实践,第三步 “会学习” 才刚刚起步,而它的边界,将决定 AI 是止步于工具,还是成为真正的业务伙伴。

更多动态 关注我们

夜雨聆风