今天读到刘小排老师的一篇文章,讨论最近很多人在使用 OpenClaw 之后,觉得它“鸡肋”。OpenClaw是鸡肋吗?
正好最近这段时间,我也在教不少金融行业的朋友上手 OpenClaw。很多人是完全没有编程背景的从业者,从投资、交易、研究到投行、资管都有。
而在这个过程中,我收到了大量几乎一模一样的问题:
“OpenClaw 真的有用吗?”
“为什么感觉它很笨?”
“是不是被市场吹过头了?”
这些问题,其实和刘小排文章里 Mae Y 的困惑非常类似。
看完之后,我的第一反应不是去讨论 OpenClaw 本身到底好不好,而是意识到一个更有意思的现象——
很多人在使用 AI 时,表现出来的思维方式,和技术人员对待非技术人员时的行为,几乎一模一样。
而这恰恰是很多人用不好 AI 的核心原因。
技术人员与非技术人员之间的“天然鸿沟”
非技术背景的人和技术团队合作,大概率会见过这样几种典型场景。
1. 看不起不懂技术的人
很多技术人员虽然嘴上不会直接说,但心里其实是有一种隐形的优越感的。
当别人问一些他们认为“基础到不能再基础”的问题时,表面上可能还会耐心解释,但心里其实已经在打分了。
“这个人是不是不太聪明。”
2. 耐心是有限的
通常解释两遍还听不懂,耐心就会开始明显下降。
这种变化往往不需要语言表达出来,一个细微的表情就足够了:
微微皱眉 语气开始变快 解释越来越敷衍
对方虽然没有说,但你已经能感受到那种潜台词:
“怎么这么简单的东西都听不懂。”
3. 习惯使用技术语言
很多技术人员在讲问题时,习惯用专业术语解释:
Docker 向量数据库 context window
问题在于,这些术语在他们看来是日常语言,但在非技术人员听起来其实和天书差不多。
于是沟通就变成了:
技术人员讲得很认真
听的人却越来越迷茫。
很多人对待 AI 的方式,其实也是这样
有意思的是,当金融行业的人开始使用 OpenClaw 时,我发现他们也会犯完全一样的错误。人在自己擅长的领域,天然会对"不懂的人"失去耐心。
原本被技术人员“看不起”的人,现在开始“看不起 AI”。
1. 没耐心
很多人第一次使用 OpenClaw 的流程是这样的:
给 AI 一个模糊任务 AI 产出不理想 觉得 AI 很笨 得出结论:OpenClaw 没用
整个过程通常只需要 10分钟。
但现实是——
AI 本质上是一个需要被训练的执行者,而不是一个自带所有业务理解的专家。
如果一个实习生第一天上班就被要求:
“去写一份行业研究报告。”
然后因为写不好就被否定。
这件事本身就很荒谬。
但很多人对 AI 的要求就是这样。
2. 抱怨幻觉,但不给 context
另一种非常常见的情况是:
用户会抱怨:
“AI 幻觉太严重。”
但你仔细看他的 prompt,可能只有一句话:
“帮我分析一下中国新能源行业。”
没有数据
没有时间范围
没有分析框架
没有研究维度
AI 在这种情况下只能生成 泛化内容。
这和分析师写研报是一样的。
如果你不给数据源,不给研究框架,任何人写出来的内容都会很空。
AI 并不是魔法。
3. 无法把自己的工作流程翻译成 AI 能理解的语言
这是金融行业最典型的问题。
很多从业者其实非常专业。
但他们的专业能力是 隐性知识。
例如一个基金经理在做研究时,脑子里的流程可能是:
看宏观环境 看行业周期 找龙头公司 看财务结构 判断估值空间
这些东西在他脑子里非常清晰。
但当你让他告诉 AI 怎么做时,他往往只会说:
“帮我写一份新能源行业的研究报告。”
于是 AI 就只能生成一个模板化报告。
而真正的专业分析,其实在 流程里。
类似的事情发生过很多次
如果把时间拉长一点,你会发现这种现象并不新鲜。
最典型的案例就是 比特币。否定比特币最坚决的是谁?就是在传统金融里扎根最深、既得利益最大的那群人。
2013—2016 年,比特币刚开始进入大众视野时,传统金融行业的主流观点几乎是一边倒的否定:
“政府一定会封禁” “普通人不会用” “没有实际价值” “只是投机泡沫”
从很多角度看,这些判断甚至并不是完全错误的。
比如在中国市场,这些判断 在很长时间内都成立。
但问题在于——
当一个新事物刚出现时,它往往只在极少数场景中有价值。
那些只看主流场景的人,自然会得出“没用”的结论。
但新的财富机会往往恰恰来自那些 最早的小场景。
拥抱 AI 时代的一个核心能力:情绪管理
在我看来,真正能用好 AI 的人,有一个非常重要的能力:
克服情绪化。
很多人在使用 AI 时,其实是在做一件事:
把情绪发泄给一个不会反抗的对象。
AI 是一种非常特殊的工具。
它不会反驳
不会争辩
不会反击
于是人类的情绪缺点就会被无限放大。
当 AI 做不好时,人们很容易下意识得出结论:
“AI 不行。”
但现实很可能是:
指令不清晰。
张一鸣曾经说过一句很有意思的话:
情绪化,是企业经营的大敌。
我们可以算一笔简单的账。
假设一场高管会议:
10个人参会 每人时薪约 220 元 会议时长 3 小时
那么人工成本就是:6600 元。
如果其中 70% 的时间被情绪消耗掉,那么:4620 元的成本实际上被浪费了。
更大的成本是:负面情绪会向整个组织扩散。
在使用 AI 时,道理是一样的。
当 AI 没有达到预期时,一个更有价值的问题其实是:
“我哪里没有把任务讲清楚?”
按照今天大模型的能力水位线,你要是还用不好 AI,大概率是你自己的问题。 每次结果不满意的时候,先别急着下结论,先问自己:我给的 context 够不够?我的指令是不是太模糊了?我脑子里那些"我觉得所有人都应该知道"的默认前提,有没有喂进去?
另一个障碍:过度自我强化
第二个常见问题,是 过度依赖过去经验。
很多人会用自己过去成功的经验来判断新技术。
于是就会出现一些典型观点:
“OpenClaw 就是自娱自乐” “都是炒作” “AI 连简单数学都答不对”
这些判断本身未必完全错误。
但问题在于:
它们往往成为拒绝探索新工具的理由。
在创业领域,有一个很常见的现象叫:
自嗨。
创业者如果过度相信自己的判断,而忽视市场反馈,就容易陷入:
自己觉得很对 团队不敢反对 用户逐渐流失
最后只剩下一个人沉浸在自己的逻辑里。
AI 的使用其实也是一样。
如果一个人已经提前决定:
“AI 没用。”
那他几乎不可能真的用好它。
OpenClaw 的价值到底在哪里?
回到最初的问题:
OpenClaw 是不是鸡肋?
客观来说,今天的 OpenClaw 当然还不完美。
记忆体系还很初级 工具调用还不够智能 长任务稳定性还有问题
但它真正改变的,并不是某一个具体能力。
而是一件更大的事情:
工作方式。
未来的很多工作,很可能会变成一种新的结构:
谁能够更早学会这种协作方式,谁就能获得效率优势。
所以回到最开始的问题:
OpenClaw 真的是鸡肋吗?
答案其实很简单。如果你只是偶尔试试,当然可能是鸡肋。
但如果你愿意:
拆解流程 提供 context 持续优化
它很可能会成为一个非常强的杠杆。
新工具从来不会一开始就完美。
但历史上所有真正改变世界的技术,几乎都有一个共同特点:
在早期阶段,看起来都不太好用。
区别只在于:
有的人选择等待它变好。
而有的人选择 先拥抱它。
与君共勉
夜雨聆风