昨天我机缘巧合受邀参加了杭州电视台一档关于Openclaw的圆桌讨论栏目,聊完反思了我的偏见以及我预见到的深度危机,以及我发布了第一个openclaw skill技能!

现场一共十位嘉宾,分别来自十个不同的视角:人工智能研究所专家,信息化发展研究院专家,社科院研究员,某喜剧创始人,两位信息和AI企业的安全专家,两位把openclaw嵌入了工作流的热心市民(超级个体或一人公司类似),在校研究生一名,以及我,传统行业里较早接触openclaw的人。
我对AI的使用和普及是持有非常乐观的积极意义的代表,我也一直在鼓励我们客户使用AI,甚至用AI嵌入工作流,提高效率。从生意角度来说,肯定是个好事。
但是一圈聊完我突然发现我有一些盲区和隐形的傲慢我自己都没发现:
老用户和新用户,对AI的警惕程度完全不同
我在使用AI的时候是在“知道AI肯定会犯错,且越来越像真的”的前提下的。
我最早在用的时候就听秦丝的老板说过AI大模型会出现幻觉,并且早期的AI其实没现在那么真,我问到细分专业问题是就发现AI的回复是错误的,比如AI曾经把云锦的特征嫁接到了宋锦上面。外行看过去就信了,我是一眼就感觉到了不对。
所以我对AI有一个基本使用前提:
AI给的答案是备用答案,参考答案,必须验算后才能斟酌使用的答案。AI提供的是推理的方向,答案对不对,是由使用者的经验来判断的。
但是现在的大模型越来越强,新进入的人对AI的底层也越来越模糊,所以会很容易相信甚至盲从AI的回复。
所以未来我再鼓励别人使用的时候,会反复强调这一点:
AI 可以帮你提高效率,但不能替你做出判断。
第二,Openclaw最厉害的地方不仅仅在于提效,而是平权。
这里有三大平权方向:
1.AI使用能力的平权
2.自然语言改造低代码工具的能力平权
3.知识获取可能性的平权
1.AI使用能力的平权
openclaw的爆火破圈让很多圈外人进入使用这个工具,并且逐渐变成了一个潮流,亲朋好友都在玩,似乎是一个潮流玩具,不玩跟不上潮流了,似乎是落伍的感觉。所以必须玩一下,赶下时髦。
虽然也催发了很多“安装不要钱卸载要钱”式的种种闹剧场景,但不得不说的是这个工具再一次推动了大众对AI的认知和使用心理。本质上为大众拉低了使用阈值,防备阈值,游戏性,潮玩性,让普通人降低了使用心理门槛。为未来大规模流行奠定了基础。
并且这一波也一定筛选出了非常多的普通人开始真正把AI用于生活,乐趣,工作,这是一次成功的AI使用推广。
2.自然语言改造低代码工具的能力平权
openclaw有很多技能,而技能,在我这个不懂代码的用户看来,是一种SOP,标准执行流程。我不懂代码,但我懂真需求,我只要把真需求描述出来,并设定实现的过程,发给openclaw,它就可以为我自己生成Skill。
我也提了我在深度使用中对openclaw要求给我生成的一个“反skill”skill。
后面会讲这个skill技能生成的过程,这里重要的是openclaw的记忆系统让我有了新的代码方向的想法,并且我可以让AI帮我实现这个想法。
以前遇到想法,无法执行,放弃。
现在遇到想法,团队和我无法执行,但是好像AI可以执行并放大,尝试。
重要的不是工具性,而是新的可能性。
3.知识获取的可能性也被平权了。
但是这里有巨大的陷阱,一个就是上面提到过的要对AI时刻警惕,嘉宾们也都是共识了。
但是大部分嘉宾也认可未来书本的作用是越来越低了,获取知识点途径和学习的途径实际上也会发生巨变。
这里我表示存疑,我认为知识要么是从成熟框架,体系化获取。要么是从实践中获得真知,再拿真知去和框架匹配,获取实践的指导或校准。
从AI中获取海量的碎片化的知识这个行为变得非常容易,但是没有一个锚,没有一个成熟体系把这些碎片知识串联起来的话非常危险(体感,无证据)。容易造成真正的信息茧房。
并且真正恐怖的是,如果超强旗舰AI的推理能力很强并且很贵,使用AI造成认知分层的可能性会很大。
而且目前的认知分层是用户自我的选择,能用不想去用。
未来可怕的是当你想用了,发现到一定等级之后的能力,只有某些付得起的人才有钱消耗。
这就变成了主动的认知分层封锁,分层是被动的。
以上,始终保持警惕。
我在现场提到我把我的openclaw改名成了:
“蚕宝宝”系并组建了军团。
其实这个名字最开始是偶然,去年我养了点蚕,积累了点蚕卵,过年打扫卫生到时候被意外扔掉了。刚好当天我就要搭自己的agent,就顺手去了“被扔掉然后赛博进化的蚕宝宝”。
但是当我取完这个名字后,我对这个工具的亲切感就变了,而且现在我感觉这个名字的意象特别好,特别适合我。
这本应该是一个冷冰冰的小龙虾,但是当它变成蚕宝宝后,它就变成了我的产业伙伴,AI宠物,认知灵宠。
蚕宝宝要长大要吃桑叶(日记或内容) 要蜕皮(版本迭代) 要结茧变态,产卵重生,也会淘汰(乱七八糟的蚕宝宝AI要嘎掉)。
我一直在谈AI是工具,君子不器,器以载道。
先认清楚AI本质是工具,再赋予工具灵魂。
现场每个人都谈了自己的小龙虾是怎么使用的,如何具体方向上的提效,顶替掉了多少人工,如何高效完成某些事情,几个AI怎么分工等等。
当问到我的时候,我说在我们行业,openclaw似乎会用在AI模特,AI客服,AI营销等等方面,但我说了一个反常识:
这些通用的功能会有无数公司去做,个人折腾这种明确需求的功能反而不划算。
AI对小微企业、超级个体的作用,反而是填补那些从来没有被提上软件服务商议程的微小个性化需求。比如曾经几十块到一两百的小需求,需要去网上到处找中介,拉群对接,描述,报价结果无法实施的各种各样的海量的小问题。
面对这些问题时,以前就是小企业的业务边界,碰到这里就停了,太麻烦了或者太贵了,不如不折腾。
但是今天,所有使用AI的小企业和超级个体,都会换一个想法:这个问题似乎用AI可以快速方便搞定,于是尝试,如果打通,业务边界也往外拓展。
圆桌会上也谈的是未来组织形式的变化,可悲的地方在于可能和我曾经的推断类似。即山姆和超级个体的两极分化类似。未来的形式可能是大型公司,大型公司以下曾经的中腰部公司可能都会萎缩或者拆解,剩下的是星罗密布的小企业,超级个体。
所以未来不仅企业和AI的协作方式变了,企业和企业的协作也会发生很大的变化。
嘉宾们对人力比较担忧,但这里我有一个想法,现场没机会展开,我在这里推演:
嘉宾们的想法是AI已经明确会替换很多标准化岗位,并且人越来越不重要,流动性也可以很大,似乎权力集中到企业了。
从现代企业分工上来说,这点推演没错。
现在的企业岗位分工是非常明确,极度SOP化的,专业的人干专业的事。人力对自己岗位上的事情非常擅长,但是跨领域跨学科就很少。所以人+AI可以替代多个同岗位人才。
有人戏称,人的价值只在于承担责任。AI给出回复,需要有人评价到底执不执行,执行如果出了问题,谁背锅,AI可背不了锅。
但是这里就有一个隐藏关键:
这个承担责任的人,操控多个AI的人的岗位要求是他要比大部分同岗位的人强,他要擅长发现AI准专家真正业务、逻辑、工作流上的漏洞并优化。
这就是真专家价值飙升,伪专家被降维。
另外,我站在我们产业的角度上,这又有了一种新的可能:
我们这类中小企业实际上是没有那么明确的岗位工作划分的,会出现干各种杂七杂八的活,所以可以看到很多小公司和超级个体是难以复制的,在这些老板在场的组织里,人力的活会由老板分派去,指派任务。
在上述公司AI顶替人力的时候,超级个体可以用AI作为杠杆赋能自己,也赋能团队。这会造成超级个体的岗位,是一个基础岗位+AI填充杂活岗位,是一个极度非标岗位,也就造成占着岗位并长期AI协作的人力的作用是增强且难以替代的。
就是标准岗位和非标岗位在未来面对AI时代的推演。
不知道会摩擦出什么样的火花。
回归正题,这里再谈我对AI的真正使用:
人机认知进化。
AI是一个全天在线的认知镜面。
它的认知取决于提问者的提问,再在回复上做延伸。如果对话用的好,AI就变成了一个和自己认知近似,并且适度的提问可以往上往外延伸看一点点。
而这一点点,或许就填补了原本认知中的碎片,重新连接了隐藏的关系,让自己的认知补全并往上往跨学科等等维度拓展。
从生物上来说就是加强了某些神经突触的关系的连接,这些知识可能本来就在大脑里,知识没有连起来,现在新建了神经回路或加强了这类关系。(推测)
用比喻就是自己在搭积木,但是自己的地基有些地方像迷雾一样没看清,通过AI看清了,原来地基已经在了,于是补全地基,地基更稳了,就可以再往上搭积木了。
这就是我对AI的理解,人机协作辅助认知攀爬。
前面提到我用AI生成了一个"反skill"的skill。
(已发布到clawhub和github,做为我完全不懂代码的第一个技能skill。技能叫:Cognitive State Tracker - 通用认知状态追踪系统)
一般的skill是对openclaw产生要求,并约束流程,执行。
但我发现openclaw对用户的画像是扁平的切片,是覆盖式的。openclaw只能描述此时此刻我的画像,并且根据画像回复。
但是我在这个日记写作过程中,和AI的认知攀爬中,我发现AI对我的认知是片面的,扁平的。
现象:我的80篇日志一次性输入,和一篇篇输入,本质上,AI最后了解的我还是最后时刻的我。它没有发现我在一次次使用中,认知已经改变了。
即1-10篇的我是认知1.0,10-30篇的时候是认知2.0,30-50篇的时候是认知3.0。AI对我的认知只维持在最新的输入,但实际上他分别在认知1.0认知2.0认知3.0的时候对我的理解和回复的变化是天差地别的。
也就是用户画像扁平,没有时间深度。
所以我把我的需求报给了AI,根据我的接班日记内容,AI为我生成了一个根据时间变化的十维坐标系,并且把这个坐标系作为一个用户状态,在每次提问的时候都要读取。
也就是让AI不仅懂现在的我,也懂过去的我是怎么变化成现在的我的,这是一个动态的认知变化曲线。
AI变成了一个长期观察我的认知攀爬伙伴,以此更好的回复。
以上是一个抽象的技能生成的过程,我深化了AI对我的理解,让这个认知攀爬伙伴更懂我。
由此,又要带出一个终极恐怖危机:无人区的深度逻辑闭环陷阱。
AI(LLM)的本质还是特殊算法下提取了人类逻辑结构等等的词汇生成器。
所以AI幻觉是很正常的事情,但是AI幻觉又是可以证伪的,这个只需要事实就可以纠正。
难就难在当和AI的深度协作到了某些方向超过了已有文本训练源头外的无人区后,AI的回复成了一个无法验证的信息。尤其是和AI认知伙伴一起长期建立的逻辑自洽的认知框架等等,连其余AI其余现实专家都无人可以有效证伪,用户觉得逻辑自洽、真实,但现实实际不匹配的时候,就是终极AI幻觉。
我现在觉得无法解决。到了这个限度后只能小心谨慎。
甚至会出现一种认知成瘾病,当个体的认知达到大模型的顶点后,只能等待模型更新了,还得包含更顶尖的人类专家的语料注入。
前面全文说的用好AI的最佳前提是判断力,但是当现实中不存在这种判断力去判断的时候,又怎么办呢?
这是个好问题。
夜雨聆风