乐于分享
好东西不私藏

OpenClaw 到底是不是鸡肋?

OpenClaw 到底是不是鸡肋?

今天读到刘小排老师的一篇文章,讨论最近很多人在使用 OpenClaw 之后,觉得它“鸡肋”。OpenClaw是鸡肋吗?
正好最近这段时间,我也在教不少金融行业的朋友上手 OpenClaw。很多人是完全没有编程背景的从业者,从投资、交易、研究到投行、资管都有。

而在这个过程中,我收到了大量几乎一模一样的问题:

“OpenClaw 真的有用吗?”
“为什么感觉它很笨?”
“是不是被市场吹过头了?”

这些问题,其实和刘小排文章里 Mae Y 的困惑非常类似。

看完之后,我的第一反应不是去讨论 OpenClaw 本身到底好不好,而是意识到一个更有意思的现象——

很多人在使用 AI 时,表现出来的思维方式,和技术人员对待非技术人员时的行为,几乎一模一样。

而这恰恰是很多人用不好 AI 的核心原因。


技术人员与非技术人员之间的“天然鸿沟”

非技术背景的人和技术团队合作,大概率会见过这样几种典型场景。

1. 看不起不懂技术的人

很多技术人员虽然嘴上不会直接说,但心里其实是有一种隐形的优越感的。

当别人问一些他们认为“基础到不能再基础”的问题时,表面上可能还会耐心解释,但心里其实已经在打分了。

“这个人是不是不太聪明。”

2. 耐心是有限的

通常解释两遍还听不懂,耐心就会开始明显下降。

这种变化往往不需要语言表达出来,一个细微的表情就足够了:

  • 微微皱眉
  • 语气开始变快
  • 解释越来越敷衍

对方虽然没有说,但你已经能感受到那种潜台词:

“怎么这么简单的东西都听不懂。”

3. 习惯使用技术语言

很多技术人员在讲问题时,习惯用专业术语解释:

  • Docker
  • 向量数据库
  • context window

问题在于,这些术语在他们看来是日常语言,但在非技术人员听起来其实和天书差不多。

于是沟通就变成了:

技术人员讲得很认真
听的人却越来越迷茫。


很多人对待 AI 的方式,其实也是这样

有意思的是,当金融行业的人开始使用 OpenClaw 时,我发现他们也会犯完全一样的错误。人在自己擅长的领域,天然会对"不懂的人"失去耐心。

原本被技术人员“看不起”的人,现在开始“看不起 AI”。

1. 没耐心

很多人第一次使用 OpenClaw 的流程是这样的:

  1. 给 AI 一个模糊任务
  2. AI 产出不理想
  3. 觉得 AI 很笨
  4. 得出结论:OpenClaw 没用

整个过程通常只需要 10分钟。

但现实是——

AI 本质上是一个需要被训练的执行者,而不是一个自带所有业务理解的专家。

如果一个实习生第一天上班就被要求:

“去写一份行业研究报告。”

然后因为写不好就被否定。

这件事本身就很荒谬。

但很多人对 AI 的要求就是这样。


2. 抱怨幻觉,但不给 context

另一种非常常见的情况是:

用户会抱怨:

“AI 幻觉太严重。”

但你仔细看他的 prompt,可能只有一句话:

“帮我分析一下中国新能源行业。”

没有数据
没有时间范围
没有分析框架
没有研究维度

AI 在这种情况下只能生成 泛化内容。

这和分析师写研报是一样的。

如果你不给数据源,不给研究框架,任何人写出来的内容都会很空。

AI 并不是魔法。


3. 无法把自己的工作流程翻译成 AI 能理解的语言

这是金融行业最典型的问题。

很多从业者其实非常专业。

但他们的专业能力是 隐性知识。

例如一个基金经理在做研究时,脑子里的流程可能是:

  1. 看宏观环境
  2. 看行业周期
  3. 找龙头公司
  4. 看财务结构
  5. 判断估值空间

这些东西在他脑子里非常清晰。

但当你让他告诉 AI 怎么做时,他往往只会说:

“帮我写一份新能源行业的研究报告。”

于是 AI 就只能生成一个模板化报告。

而真正的专业分析,其实在 流程里。


类似的事情发生过很多次

如果把时间拉长一点,你会发现这种现象并不新鲜。

最典型的案例就是 比特币。否定比特币最坚决的是谁?就是在传统金融里扎根最深、既得利益最大的那群人。

2013—2016 年,比特币刚开始进入大众视野时,传统金融行业的主流观点几乎是一边倒的否定:

  • “政府一定会封禁”
  • “普通人不会用”
  • “没有实际价值”
  • “只是投机泡沫”

从很多角度看,这些判断甚至并不是完全错误的。

比如在中国市场,这些判断 在很长时间内都成立。

但问题在于——

当一个新事物刚出现时,它往往只在极少数场景中有价值。

那些只看主流场景的人,自然会得出“没用”的结论。

但新的财富机会往往恰恰来自那些 最早的小场景。


拥抱 AI 时代的一个核心能力:情绪管理

在我看来,真正能用好 AI 的人,有一个非常重要的能力:

克服情绪化。

很多人在使用 AI 时,其实是在做一件事:

把情绪发泄给一个不会反抗的对象。

AI 是一种非常特殊的工具。

它不会反驳
不会争辩
不会反击

于是人类的情绪缺点就会被无限放大。

当 AI 做不好时,人们很容易下意识得出结论:

“AI 不行。”

但现实很可能是:

指令不清晰。

张一鸣曾经说过一句很有意思的话:

情绪化,是企业经营的大敌。

我们可以算一笔简单的账。

假设一场高管会议:

  • 10个人参会
  • 每人时薪约 220 元
  • 会议时长 3 小时

那么人工成本就是:6600 元。

如果其中 70% 的时间被情绪消耗掉,那么:4620 元的成本实际上被浪费了。

更大的成本是:负面情绪会向整个组织扩散。


在使用 AI 时,道理是一样的。

当 AI 没有达到预期时,一个更有价值的问题其实是:

“我哪里没有把任务讲清楚?”

按照今天大模型的能力水位线,你要是还用不好 AI,大概率是你自己的问题。 每次结果不满意的时候,先别急着下结论,先问自己:我给的 context 够不够?我的指令是不是太模糊了?我脑子里那些"我觉得所有人都应该知道"的默认前提,有没有喂进去?

另一个障碍:过度自我强化

第二个常见问题,是 过度依赖过去经验。

很多人会用自己过去成功的经验来判断新技术。

于是就会出现一些典型观点:

  • “OpenClaw 就是自娱自乐”
  • “都是炒作”
  • “AI 连简单数学都答不对”

这些判断本身未必完全错误。

但问题在于:

它们往往成为拒绝探索新工具的理由。

在创业领域,有一个很常见的现象叫:

自嗨。

创业者如果过度相信自己的判断,而忽视市场反馈,就容易陷入:

  • 自己觉得很对
  • 团队不敢反对
  • 用户逐渐流失

最后只剩下一个人沉浸在自己的逻辑里。

AI 的使用其实也是一样。

如果一个人已经提前决定:

“AI 没用。”

那他几乎不可能真的用好它。


OpenClaw 的价值到底在哪里?

回到最初的问题:

OpenClaw 是不是鸡肋?

客观来说,今天的 OpenClaw 当然还不完美。

  • 记忆体系还很初级
  • 工具调用还不够智能
  • 长任务稳定性还有问题

但它真正改变的,并不是某一个具体能力。

而是一件更大的事情:

工作方式。

未来的很多工作,很可能会变成一种新的结构:

谁能够更早学会这种协作方式,谁就能获得效率优势。

所以回到最开始的问题:

OpenClaw 真的是鸡肋吗?

答案其实很简单。如果你只是偶尔试试,当然可能是鸡肋。

但如果你愿意:

  • 拆解流程
  • 提供 context
  • 持续优化

它很可能会成为一个非常强的杠杆。

新工具从来不会一开始就完美。

但历史上所有真正改变世界的技术,几乎都有一个共同特点:

在早期阶段,看起来都不太好用。

区别只在于:

有的人选择等待它变好。

而有的人选择 先拥抱它。

与君共勉