各位,好久不见~
不知道大家最近是否有听说Openclaw或者“养龙虾”这一类话题,至少对我而言,身边到处都在讨论这件事。一些人抱着好奇,一些人积极尝试,一些人声明和抵制。
趁着现在它的热度还在过渡期,差不多是用的人已经冷静,观望的人还在犹豫的时间节点,自己就想用这篇文章,和大家展开聊聊它。
观前提醒:本文并非技术评论,所以一些专业术语可能解释得有偏差,以及本文中大多作者的原话来自于油管上Lex Firdman的一期视频播客,视频原链接和文字稿链接我在文末都有标出,在展示时我会截图机翻的文字稿,会出现一些识别错误,大家意会就好。

文章分为了两大部分,前半部分主要讲Openclaw,而后半部分则是延伸到各种AI,从我个人的视角,看看AI的发展进程和它对我们现实世界的影响~
讨论的热潮
名字的由来
所以,它到底是什么?“龙虾”的原名叫做Openclaw,open是开放,claw指龙虾的“钳”,作者是奥地利的Peter Steinberger开发,是去年十一月发布,在今年二月兴起,三月国内大火的开源AI项目。

meowclaw嘿嘿嘿~~
其实Openclaw一开始的名字并不是"Openclaw",而是Clawd,是“‘Claude’ with a claw”,即“Claude的钳”的双关,但由于和Claude的发音太接近,后面改为了Clawbot,再是MoltBot。

不过Moltbot这个名字有点绕口,所以最终换成了现在大家耳熟能详的Openclaw,Open是开源开放,Claw是“法律”的利爪,也是“龙虾”意象的传承~

官方文档中对于Openclaw名字的解释
时间线
让我们先简单回顾一下关于它的各种消息时间线,在Openclaw这个名字出现,大约是在2月1日前后,国内的讨论就已经开始冒出,不过当时更多的讨论还是在国外为主。

百度指数,时间范围是2月1日~3月17日
因为Openclaw作为开源项目发布在了github上,所以这里就要涉及到github上的“收藏”数——星标(stars,可以理解为收藏和关注数)。

而Openclaw的星标,在发布后的72小时就从1万飙升到6万,两周内直冲到18万,截止3月18日,已经涨到了32.5万,这个级别,已经远远超过Linux内核的Github星标数21.8万,成为了现象级的产品。
而如果看国内的官方提及,可以从三月初算起。两会是3月5日上午开幕,3月12日下午闭幕,而Openclaw就是在这个期间被提及,大大提高了它的传播度。

以及深圳、龙岗、常熟等城市在3月9日前后非常迅速地提供了一系列支持政策与提案,让更多人开始关注它。


不过同一时间,也是官方视角,国家互联网应急中心发布了风险提示

各地多所高校也及时跟进,禁止内网中使用Openclaw

工信部也在3月11日正值讨论高峰的时间上,再次发布了提醒


为什么说是再次,是因为工信部在2月5日就已经发过了一次提示,不过那时的讨论热度相对来说还不高。
媒体视角
而在Openclaw火爆期间,自二月至今,媒体讨论的分化程度也比较明显,一部分是完全的支持,描绘着一种“颠覆”、“划时代”的故事愿景。

当然,更多比较正式的媒体则会审慎地辩证看待


而这其中,自媒体成为了最大的受益者(嗯...怎么不算是一种蹭热度呢~),不管你持有什么观点,用什么样的形式,只要发出来就会有讨论。

只是统计Bilibili,在 3 月 10 日当天,就有 600+ 的以Openclaw为关键词的视频发出。

根据哔哩指数,3月10日当天就发布了600+视频稿件
很有趣的是,在采访作者的视频播客中,主持人提到了一点是,人们总是会过度夸大那些断章取义和人为引导的传言。



还有国内讨论度比较高的——让Openclaw听从指令发红包这些传言,也只是整活而已。

方便才是第一传播力
根据作者的自述,Openclaw项目的最初想法在一开始只是一个将AI接入whatsapp的功能(国外的一个通讯软件,类似于微信),让用户可以通过通讯软件与AI直接交互。

从一个“方便一点就好了”的念头开始
以及,在项目的页面中,作者用了三个简短有力的并列描述了Openclaw的定位,即“你的助手,机器和规则”,是一个完全由“你”定义和决定的助手

换句话说,Openclaw是一个越用越了解自己的AI助手,以聊天软件为载体,搭建起了通讯软件与操作电脑之间的桥梁。
这也是此次传播力度如此之广的其中一个原因——它可以接入飞书、钉钉这类通讯软件,让大家可以在手机上远程发消息让它做电脑上的工作。
一点原理
光讲别人的讨论肯定不够,后面我们会对Openclaw更细致地分析。不过在此之前,我还打算用一部分文字和大家简单说一下它的原理,要不然不知原理,后面的讨论都会变成“无根之萍”,经不起推敲和理解。
通过GPT看Openclaw
当宣传如此猛烈,无论立场和态度如何,至少我们没有看到“辟谣”类的报道,这就说明Openclaw确实在技术层面上有了创新。
所以,我就以一个体验者的视角,通过我接触GPT的经历,带大家感受一下Openclaw究竟强在哪?
记不住的困扰——上下文Context
23年年初,是GPT刚刚出来不久,也是我第一次接触它的时间点,当时它给我带来的巨大惊喜是它可以生成文字,尽管相比于现在,它的逻辑还有待提高,幻觉有待降低,但是它迈出了第一步——理解我的话并给出回应。
然而很快,随着和它不断聊天,我发现自己在开头提过的问题它会忘记,很多我和它强调的“牢记”都会因为对话数量的上升而被遗忘。
于是当时我想到了一个解决办法:既然它会在多轮中忘记对话细节,那么我干脆一次性把上面所有对话问题,从头到尾地复制一遍,然后粘贴给它,此时它不就能完整记住和给出答复了吗?
这也是上下文最直接的体现,即AI实际上在每一轮中要处理的,是用户和它进行的所有对话内容,包括它自己的每一次输出。
当然,现实从来不会如此美好,我发现一方面,自己会逐渐疲于处理不断积累的文字,另一方面,随着文本量累积到万字的级别,GPT就算是面对单次的对话,也开始出现记不全的情况。

了解后我才知道,当时的GPT-3.5只有4k的上下文,相比于现在随便一个AI都是256k,简直是碾压。
23年的一年里,尽管模型升级到了GPT-4,开始能够读取和生成图像、pdf等附件,有了语音,拥有了多模态能力,但这些都没有改变我使用它的体验——它依然会一言不合就“失忆”。
转折点——记忆Memory


但这种功能在我体验下来依然有很大缺陷:
一方面,它总是把一些无关紧要的单次对话记忆放在长期记忆里,这会导致当我和它在讨论B时,它会给我A的细节,降低输出的正确率和破坏我的体验;

聊天记录我找不到了,但让豆包还原一下大概是这样...
另一方面,它的记忆依然存在明显上限,当时大概每三个月,我就需要手动去清理一遍。

所以,记忆,改善了过去它完全失忆的“症状”,但依然有比较多的问题。

24年,GPT还有一个更新让我眼前一亮,就是搜索功能,从此时开始,只要打开搜索功能,它就不再像过去一样,只是在自己的训练数据里打转,不再一股脑地编造不存在的事实。
在搜索的加持下,它开始变得“有理有据”,以及后来开始接入各厂商应用的GPTs也让它的应用面变得更广。
代码助手Codex——上下文压缩Compaction

我知道一些朋友可能会困惑,“为什么你文章写的Openclaw但又要讲这么多的GPT?”
实际上,前面之所以花这么多篇幅去讲GPT的发展和我自己的使用经历,是因为这些变化是普通用户在使用AI时最常遇到的几个问题:
一开始的问题是上下文太短。聊天一多,前面的要求就会丢失,任务很难连续推进; 后来记忆功能出现了,这个问题得到了一部分缓解,但新的问题也随之出现,例如记错重点、长期记忆混入无关信息、容量依然有限; 再往后,工具调用和搜索能力开始成熟,AI可以连接外部世界,处理的任务范围扩大,但依然不够稳定; 到了代码助手支持压缩上下文后,AI才初步具备了在长任务中维持连续性的能力,但场景也还局限在代码编辑。

所以,大家能看到这条发展路径的演变过程,AI能力一直在往三个方向努力:
第一,是如何更多更好保留和调用信息; 第二,是如何更快更好处理复杂流程的任务; 第三,是如何在更长的流程里更稳定地执行任务。
Openclaw强大之处就在于它把这三个痛点一并考虑,把记忆、拆分任务、调用工具、持续执行集成到了一个完整的使用框架。


而Openclaw对这个问题的处理方式,是把上下文拆开管理,当前任务相关的信息单独处理,例如当前文件、规则、报错。而长期信息则单独处理,例如用户偏好、常用路径、项目背景。

同时,在处理过程中,历史信息也不会全部原样保留,而是经过整理、压缩和筛选,在需要的时候再调用。
Openclaw的上下文引擎解决的,就是过去AI最苦恼的地方,即信息的高效利用。

前面GPT经历中还提到的一点是,随着工具能力增强,AI需要面临的任务已经不再只是回答一个问题,而是开始面对包含多个步骤的复合任务,当这些任务一复杂,单线程处理就容易出现混乱,就比如调用工具实际上也被纳入到了上下文长度中,影响执行质量。
而Openclaw引入了子代理,也就是让一个AI扮演主代理的身份,它本身并不执行任务,而是专门负责发放任务给多个子代理,然后由这些子代理各司其职分别处理后汇报,再统一由主代理汇总后反馈给用户。

欸,我..我吗?
其实直白理解,这种模式就像是一个团队的工作模式。

Kimi的Agent集群能力其实就比较像是这种形式
这一步对应的是AI从回答问题走向处理任务之后必然会遇到的复杂度问题,解决的是多步骤任务中的分工和稳定性。
跳出一次性交互——代理循环Agent Loop

在前面的时间线里,还有一个变化也很重要。无论是记忆、搜索,还是压缩上下文,这些能力最终都指向同一个方向:让AI能够在更长的流程中稳定、持续地工作。
我们在和传统AI的交互过程,往往是一问一答,我们发出一条指令,它执行一步,然后等待下一条输入,整个过程需要我们时时刻刻的推进,比如“继续”。

Openclaw采取了一种名为代理循环的策略。系统会围绕同一个目标持续执行理解任务、决定下一步、调用工具、检查结果、继续推进这一流程,直到任务完成、中断或回退。

其实去年Anthropic有提过这一点,但Openclaw不仅做到了这个,还进一步完善了上下文的问题。
换句话说,Openclaw在解决了上下文这类硬性的输出质量问题后,再赋予了它自行持续解决问题的权限,意味着AI开始具备连续执行任务链的能力,能够自行决断任务的推进和在过程中自我纠正的能力。
把前面GPT的发展过程和这里的Openclaw放在一起看,我们就清楚了它被如此广泛传播和热烈讨论的技术性原因。
(还有更专业的技术突破,限于个人能力没办法和大家讲清楚,专业的朋友可以看官方文档,自己更多提供的是在非开发者体验视角下能明显感到“解决我过去痛点”的创新点~)
过去几年,AI一直在朝着三个方向的能力进步:信息保留与高效利用、复杂任务处理、长流程稳定执行。Openclaw的价值在于它把这三部分进一步整合成一个更完整的框架:
- 上下文引擎:处理记忆的连续性
- 子代理:处理复杂任务拆分
- 代理循环:处理持续执行与校验
因此,Openclaw引发的讨论算不上是完全的“炒作”,在技术层面上,它的确解决了一些过去大家都比较苦恼的痛点~
好吧!在了解了Openclaw的背景,回顾了这段时间关于它的各种讨论,还有通过原理了解它的强大功能,我们难免会对它心怀憧憬。所以这一部分,我就是来给大家“浇一盆凉水”降降温的~
安装
这一次讨论的热潮发酵,让其面对的受众也更加广泛。过去大家偶尔会打趣“不会解压压缩包”的朋友,对电脑了解不多的朋友。
而这一次,Openclaw部署的难题拦住的人只多不少,光是命令行的操作形式,就已经劝退的大部分接触不多的朋友。
不过,这反而是让那些想要“卖铲子”的商家抓住了机会。
一开始我听别人提起的时候还是不屑一顾,直到我自己去搜的时候才知道,这个玩意能这么“挣钱”。

多少????!!
虽然按照作者的原话说,他想让这个安装部署的过程可以“可以推荐给妈妈”的简化水平,但是因为他的精力目前更多还是放在安全问题。




嗯...怎么说呢,看过了淘宝上的价格,是不是感觉这些大厂简直是“做慈善”?各种免费的活动,除了帮忙安装部署Openclaw,还有开通Coding plan就赠送“大量”的token额度。

等等,token额度?什么东西?
没错,这就是我们要说的第二个门槛,用个比较搞笑的话去说就是,“这不是它的缺点,是我的缺点”——成本。不是部署的成本,而是接入API的成本。

我有问过周围一些不了解AI的朋友,问他们对于Openclaw的认识和看法,他们大概的描述是,Openclaw就是一个像是接管电脑的AI,只要给它们指令,它们就可以自行规划和执行,最终解决问题。
而实际上,Openclaw更像是一个平台,一个作为链接AI和个人电脑之间的桥梁。它本身并不提供智能,而是提供一个解决问题和执行方案的框架,可以调度各种AI去对电脑上的各种文件进行操作,所以自然的,Openclaw需要用各大AI厂商的API驱动(原来在这等着呢)。

Openclaw的官方文档里,列出了所有会使用到Token额度的地方
不同于更多人熟悉的网页端AI对话,当使用方式切换到API时,价格就不再是免费,特别是越好的模型,开销就会越大。而在很多人的体验中,国内很多网页端AI的对话往往是不限时、不限次的免费使用,这“突然间”的高昂收费,可能让一部分没有心理准备的朋友大吃一惊。
就拿我二月份消耗的Token,以智谱的GLM5这一个大模型,我这一个月高强度用了两周左右的情况下,消耗的Token数为九千万左右,没错,是九千万。


而且,我的使用方式还是以代码助手的形式去使用,如果把它接入到Openclaw,以7*24的方式持续运行,这个Token消耗只会更加恐怖。
这也是一开始我们提到的,为什么宣传中提到“越用越适合自己”,就是原理部分我们讲过的上下文和记忆机制,Openclaw的做法是将每一次的对话模式和内容存为一个markdown文件,每一次它在解决我们当下提出的问题时,它也会适当检索和引用这部分记忆一并输入当前对话场景。

大家也已经知道,这些记忆和上下文,是会随着使用次数的推移不断积累的。
拿Openclaw的具体场景来说,假设有一百条和自己相关的记忆,那么每一次我们和它的对话,对AI而言,就是从100条记忆中检索它觉得需要的标签,然后加上这一次的问题进行回答。

Openclaw: 说到钱咱是一分钱没有咯
于是,各位就能想象,随着使用时间的推移,期间每轮对话都意味着下一轮消耗的Token只会增加不会减少,最好的情况,也只是维持不变。

再加上有些时候,可能因为我们描述不够清晰,需要纠错等问题,会让AI对同一步骤反复修正,进一步加剧Token消耗。
尽管我们在原理部分提到了Openclaw在上下文和记忆的压缩上的巨大进步,但是这也没有改变二者的本质——记忆一定是随着使用次数上升的,所以,Token的开销会比大家想象得还要高出很多。

还有一点是,按照Openclaw的官方文档中建议的,Openclaw最好使用高质量的模型来确保安全,但越好的模型开销对钱包就越不友好...
风险
正好提到了安全,这一节我们就来讲讲大家都在说的风险问题。除了前面说过的工信部发布的提示,3.17国安部也发布了一个《龙虾养殖手册》的推文。
虽然里面的内容有点“宏大”,但是无论是各种官方提醒,以及Openclaw在一次更新后将默认设置改为了禁用操作权限,都在说明权限问题所引发的安全风险不容小觑。

OpenClaw 在官方安全基线中,默认关闭让 AI 直接操作系统的能力,包括执行命令、自动化操作和文件访问,同时禁止它自主提升操作权限。
这一小节,我们会分内部风险和外部风险两个方向展开。
“一次性操作”——系统级权限
第一个方向是本地端的操作权限安全,在Openclaw部署在我们的电脑上获得了极高权限的情况下,很多高风险的操作就成为了一种不可逆的“一次性操作”。
在一些代码助手中,例如Kimi code在其权限中存在一个选择,名为YOLO,全称是You only live once(你只活这一次),意译过来,就是当开启了这个模式后,AI将会以系统权限执行各种各样的操作且不再询问你的批准,准备“放手一搏”。

类似的叫法还有Full access(完全访问权限),以及Bypass Permissions(绕过权限)叫法,本质上它们都是一类让AI接管极高系统权限的开关选项。


这类功能开启后的好处是,我们不需要反反复复地确认,坏处是,我们没办法及时确认。

当没有开启这个权限时,修改和删除的敏感操作都会弹出选项框手动确认
这也就导致了一些不当的操作或引导将会让AI去执行一些高风险的指令,如rm(remove)这类破坏性删除指令,从而对电脑中的各种数据造成不可逆的损毁。
拿最近自己的例子和大家说:就在两周前,我使用Codex开启完全权限模式下,踩了这个坑。
我当时在一个项目里,让它处理和移动一些文件时,它识别到了“[]”这个符号开头的文件夹。

而后在它好几轮的尝试中,都没有正常读取到对应的文件内容,于是它在回顾了移动文件的指令后,判断“先删除,再移动”的判断,而删除又没办法确定,于是它一路向上定位,以我的D盘为路径,启动了rm指令。

最后结果依然是没有正常恢复,花了自己好几天时间去重新恢复备份,当时确实有点小崩溃...
于是,在短短几分钟里,我电脑D盘中的1T左右的文件被删除和破坏。还有在网上流传也比较广的,Meta AI 对齐总监使用Openclaw,结果被删除收件箱的案例,都在印证着这类极高权限所存在的隐患。

而且在我们前面介绍完原理后,大家也知道,Openclaw的“个性化”和“高度自动化”实际上也非常大程度地依赖于它的高操作权限,正因为它被允许做更多事情,所以它才显示出更加“全能”的表现。然而如果知悉不足导致这种权限失控,其造成的损失也是过往网页端AI所不能及的程度。
因此,在开放Openclaw的权限功能前,大家不妨问问自己,Openclaw权限范围是否在自己能够管理的能力之内,保证它在部署的这个电脑上能妥善按需不逾矩地处理好文件,确保失控风险的最小化。
数据隐私——恶意技能Skill注入
关于安全的另一个方面主要来自于技能Skill,直白理解就是一些方便AI在解决实际问题的参考操作手册,比如下载视频的方式,语音转文字要用到的转格式和识别导出用到的插件、命令和方法。

AI在阅读了对应的skill.md文档后,会下载对应的工具,从而更好地执行任务。


在各种官方提醒中,这种风险案例非常多,比如api被盗用,一晚上钱包倒欠过万元,各种重要数据文件丢失和损毁等。
总结来说,对内,我们需要考虑Openclaw所具有的高权限带来的操作问题,对外,我们需要意识到现在依然存在恶意Skill的潜在风险,这些听上去遥远但致命的问题如果没有提前防备,将会成为我们使用它的最大安全隐患。
判断
其实前面提到的三个“硬性”门槛,特别是安装和安全问题(成本是钱包没招了咳),都能通过一些手段规避和解决,然而到这里,一个更大的无形门槛是,判断门槛。说直白一些就是识别AI错误的能力。
自AI大模型发展以来,我们听得非常多的就是其过程像是黑箱,大家不知道该如何解释它们为何会涌现出这些属性,但是确实又生成了符合我们想象的内容,有些时候,甚至表现出一些人称作的“智能”,也就是自主判断的能力,这一点至今依然是未解之谜。

如果对大模型原理感兴趣的朋友,可以看看去年Anthropic的这些机制研究
而对于我们用户而言,从过去一眼可以看得出来的错误,到现在各种话术和庞大的信息流训练,我们愈发难以判断AI给出的答案正误,特别是随着深入领域,对知识库的要求变多变高时,我们会发现它们开始更加频繁地出现幻觉。

这种幻觉在该领域的人眼里或许只是些常识性错误,然而对于非专业领域的人来说,一些听上去有道理的“概念”和“理念”就会被当做正确答案。
并且,这个过程会随着小错误的叠加陷入恶性循环。如果没有人为的印证和溯源,我们就永远无法保证AI有100%的正确率。
因此,相比于前面提到的几个门槛,更为重要的是我们的判断能力~至少,我们要能够看得出AI哪里错了,怎么错了,为什么错了,以及自身要有解决这些问题和错误的能力。
小结
从安装到成本,从风险到判断,每一块其实都我们需求的影子。如果安装部署、成本支出、风险管控要花费的代价大于我们能承受的上限,那么此时Openclaw就不适合当下的自己。
如果你没有经验并且很忙,没有时间学习如何部署安装,你可以选择购买服务跳过这一环节;然而后续模型的选择意味着你项目的执行质量、用户体验、成本开销,以及在运行期间,对风险的持续关注与维护,以及当一个项目完成时,自己对项目本身错误的识别判断能力,都没办法跳过,你依然需要去学习、探索和试错。

鱼不重要,重要的是自己钓()
当我们的需求越强烈,个性化需求越高,就越需要我们亲力亲为,“代安装”这种服务更像是卖了你一根鱼竿,但是钓鱼本身,还得靠自己。
讲完讨论,讲完原理,讲完门槛,关于Openclaw是什么的话题到这里就已经结束了,而怎么用、如何用的一些部署建议,我放在了最后一并讨论,在此之前,我更多想和大家从宏观上聊聊,我自己对于AI带来冲击的感受。
需要Openclaw部署相关建议的朋友,可以滑到最后的建议部分~
对我个人来说,2026年给我留下印象最深的AI大模型有二,一个Openclaw的出现,另一个则是字节跳动旗下的Seedance 2.0出世,可以说它们是各自领域的突破性进展,是“里程碑”事件。

已经站在了难辨真假的路口
过去自己总是觉得那些AI视频一眼假,不可能看不出来,但是Seedance 2.0所表现出的一致性和稳定性,已经让我开始动摇之前的念头,而这类视频领域的AI,如果从被大家广泛熟知的Sora开始,到现在的时间,才不到2年。

要是再向前看一点,当时AI生视频刚火出圈时,像是国外演员巨石强森吃石头,还有威尔史密斯吃意面这类AI生成的视频(用的是Pika1.0,发布时间是23年年底)经常被拿来调侃。
当时画面的表现是各种不稳定和抽象动作,但现在,运镜、细节、甚至物理条件模拟的进步,已经让AI视频走到了难分真假的程度。


我自己并不反对用AI做视频,毕竟AI确实让很多过去只存在脑海里的幻想以视频的形式重现,可以说只要愿意,只要付出少量金钱,就能做到“梦想成真”,这是过去无法想象的事情。

最近也比较火的邵氏电影风格的反转,国家反诈中心也参与其中()
只是,当我们站在这个路口时,已经不可避免地要去思考如何应对这真假难分的AI视频,版权问题、创意能力、隐私问题等等。
更多问题都会随着技术的进步而一并涌出,就像是这次对Openclaw所引发的风险讨论一样,当AI的能力边界超出我们能接受的程度,我们该怎么办?
越来越多的“赛博泔水”
与此同时,技术的进步会随着受众群体的扩大,倾向呈现两极分化的局势。优质的内容确实不断出现,但是大量低质的“赛博泔水”更是毫不手软地在争抢流量,有心者还会用AI去生成具有危害性的视频。



这类新闻报道一直很多
以及优质视频丰富,低质视频泛滥的问题也在发生。

根据 Kapwing 于 2025 年 11 月发布的研究,在一个新建 YouTube 账号前 500 条 Shorts 推荐中,有 104 条、约 21% 被其判定为低质量 AI 生成内容。
不过,我发现一个很有趣的现象是,AI生成视频质量不断进步的同时,不光是画面在进步,观众的审美也在进步。
也就是说,除开那些危害性的“赛博泔水”,对于正常的创作者而言,做得好的,被广泛认可的作品,依然是少数。

想法来源于人^^
作为创作者,如何突出自己作品的优势,如何更加个性化,如何走出自己的创作道路,实际上都离不开对工具的学习和理解,理解的越深,在操作和实践中越能得心应手地去描绘自己的想象。
这是不是很像前面我们提到Openclaw的风险问题,了解越多,风险发生的概率就越低。
写作
好吧!来到了我熟悉的领域,可以稍微多说一点~
文本的同质化趋向
写作更是如此,AI泛滥所影响的第一个领域就是文本生成,即写作,这种泛滥的背景下,同质化的文本越来越多,读者看的越多越抗拒,作者写的越多越自我怀疑,长期使用下被AI反向影响也也并不少见。

最近Nature上的一篇新闻提到,AI的使用可能会让人类的表达变得千篇一律,当一种更加省时间省精力的“写作”方式呈现时,又有多少人能抵制其诱惑呢?
因此,和去年自己观点一致,AI写作始终不是正道。
如果用修仙小说里的做类比,用AI写作类似于使用丹药快速提升修为,确实,在熟练提示词,并且对写作本身稍有了解的前提下,用AI辅助自己写出一篇完整且质量不错的文章并不难。

现实生活中的自己依然会时不时有这种感受出现...
然而,自己的表达能力实际上会在这个过程中被严重削弱,我们不再花精力思考如何组织混乱的想法,如何链接不同角度的观点。我们只要像甲方一样一股脑地“提出需求”,就可以把任务交由AI处理。
但很多人却忘记了,写作本身是表达自我的能力训练过程,用AI的比例越大,对自己的提升越少,甚至不当使用下,表达能力反而会退步。
“垃圾进,垃圾出”
还有一点是创作中也提到的内容,即“垃圾泛滥”,现在AI的成本如此低廉,大量自媒体也开始使用AI批量流水线创作内容,这就导致了一眼望过去全是AI内容。

而AI写作过程中获取互联网信息又会参考这些AI产出的垃圾,所谓“Garbage in, garbage out”(垃圾进,垃圾出),让创作变得毫无生机。
在这篇文章撰写和检索资料期间,大量AI写的Openclaw文章让我有点“犯恶心”,各位可以在微信搜索里输入Openclaw就能感受到...
且不论AI能力,一方面,我们没有办法让AI接管我们的生活,我们依然需要与人打交道,需要去学习各种新事物,AI并不能在所有方面应用,另一方面,AI的预训练过程中所追求的稳妥和大多数的选择,会让“去个性化”风险高于“个性化”优势,损害我们写作的动机。
如果未来有机会,可以单开一篇文章,和大家聊聊AI写作的内核~
学习
除开艺术创作以及写作这类对外输出的方面,对内而言,我们还需要不断学习。
文章的主角Openclaw从来不是一个简单好上手的工具,它的复杂性和系统性是需要花很多时间精力去尝试、探索和学习的,这些过程无法被替代和跳过。
AI的出现确实颠覆了传统的学习模式,过去我们需要顺着前人搭好的梯子,比如书本教材,视频教程,然后在实践中一点点摸索出自己喜欢的路。
但现在AI驱动的学习模式,能让我们以专业的理论高度和新手的理解视角,“硬啃”那些知识概念,节省大量的时间。
但这就涉及到认知心理学中的一个概念,即“理想性困难”Desirable difficulties,定义是“那些会减慢学习材料获得速度、让学习过程显得更费力,但随后能提升长期保持与迁移的学习条件或策略”。

比如AI辅助阅读总结文献,AI翻译快速理解要义,压缩知识点等,但使用AI节省下来的时间,会在未来以另一种形式逼迫自己偿还——让提升我们学习能力的理想性困难大大减少,对我们长期的学习能力造成负面影响。
AI是很强,但用不好AI会损害我们的学习能力,所以学习如何用好它,也很重要。
为什么要讲一些“无关紧要”的内容,其实是因为大家如果把我上一部分的所有AI换成Openclaw,都是成立的,Openclaw就像是集大成者,既有更多的优势,也存在更多的问题,在具体领域里的AI进步和感悟,能让大家更切身体会它。
抱着“玩”的心态去探索和尝试
在大家对于Openclaw也有了初步的了解后,对它的好坏在心中也有了杆秤。无论是风险还是优势我们都已知悉一二,可以以更加自信的姿态去应对,而不是随着那些媒体宣传左右摇摆。
我知道一部分朋友进来也是想得到一个更大问题的答案,即“Openclaw,什么时候适合入场呢?”

作者的说法是“如果你不了解风险,那就再等等,等它再完善一些”,不着急,实话说,我的第一版稿件里,对尝试它的建议也是,“再等等,等它再发展得更安全、更好用时再进入”
这种结论建议虽然稳妥,但是显得有点过于“无趣”,我们回看AI迅猛发展的这三年多的时间就能察觉,每一个时间段其实都冒出过类似的小热潮,比如AI建模,AI音乐等等。

在这些AI对应技术出现的时候,这些相对的小圈子里所引发的“热潮”,非常像这次Openclaw讨论热潮的缩影,大家总会担心这些新技术会替代和革新人类现有的能力(还有岗位)。
然而现实情况是,用得好这些工具的创作者或开发者,往往是那些本身对领域就有所了解,对那些专业知识能娴熟运用的人,他们也是在那段爆火的时间里,创作出好作品的作者群体。
以及在这些热度过去后,那些懂行的,在业内的人开始逐渐熟练地将其应用到工作流中,让AI辅助自己的工作,大大提高效率。那些听着风头而来的人,待到三分钟热度褪去,自然又丝滑地离开。
在我看来,AI自始至终都是工具,尽管现在有各种媒体宣传,AI的迭代太快,“再不上车就赶不上了”,但一方面,技术还没有发展到他们所描述的夸张图景,另一方面,无论技术再怎么迭代,AI最终也要回归到服务于人,人作为受益者,其核心的利益不会到被AI完全替代。

再说回Openclaw的作者,在他看来,最好学习上手这些AI的方式就是“玩”,重要的不是结果,是用它们去探索各种各样可能的过程。
从一开始,我们就没有必要冒着风险让Openclaw完全接管电脑,也没有必要抱着非常宏大的愿景替我们完成现实中的重大项目。大家完全可以用谨慎而好奇的心态去探索它,在自己力所能及的范围里,实现一些好玩的想法。
所以,对AI这条完全新兴的道路,何时参与都不晚,路是自己走出来的,在折腾期间踩过的各种坑,犯过的各种错,都会成为对未来自己的助力,你会在实践过程中更加了解AI,而不只是像宣传的只是“AI更了解你”,你会有更多的选择权,知道的更多也意味着尝试过程中折腾出什么的更大可能。
我知道这么写会有点“鸡汤味”,不过,对于那些还在观望和犹豫的朋友,这些可能可以让你们有所动心。
安装部署,可以找官方文档学,可以找人问;风险管控,可以去看,去学习;成本问题,嗯...这一点我也有问题()
在这些硬性条件的不断满足过程中,我们会自然而然地锻炼出判断能力,我们会对它们容易出现问题的地方有所察觉,对它们运作方式的更加了解才意味着更高的个性化,毕竟,选择是双向的嘛~
能力越大,责任越大
尽管我的电脑在前段时间也因为权限问题踩了坑,和大家分享了那个Meta AI对齐总监邮件被删的案例,但我依然保留向大家推荐尝试它的想法。


更大的权限实际上也代表着更大的责任,Openclaw的作者从一开始就在强调这件事情。
再加上很多人并不是带着明确问题去使用 AI,而是先被讨论热潮煽动,再反过来给自己制造需求(具体的展开感兴趣的朋友可以去看我那篇讲AI工具性的文章),以及抱着只要使用AI就能满足自己的需求这个过于不切实际的愿望,只会在盲目跟风中反反复复踩到“风险”的坑~
因此,关于Openclaw的建议,关于探索过程中的一些小建议是:
别部署在主力机上,如果没有两台电脑可以考虑云电脑; Skill这种技能文档可以参考别人的,但是不要看都不看就直接使用; 不要抱有它能解决所有问题的心态,而是抱有随时可能出问题的心态去尝试; 它从来不是可以一口气完成一个项目的全能助手,而是需要不断引导和干预的辅助性助手,你是老板,它是员工,虽然在实践方面是它做,但是你得对细节足够清晰,你需要为它的前行方向把舵。 还有,记得钱包的承受能力......

在起草这篇文章的第一版草稿里,我其实把焦虑放在了最前面。一开始我还觉得没什么,但是随着我搜集各种各样的新闻报道,我自己写着写着也开始焦虑。

越是说“不要焦虑”越是焦虑,这也导致了我接下来的好几天都陷入了一种焦虑性创作,逼着自己写,但是写不出满意的内容。
最后,实在受不了的自己选择把文章直接打碎重写,才有了现在这篇的框架。而令我很意外的是,这一次的框架里我几乎没怎么提到焦虑,直到复盘的时候才想起它。
站在事后的视角去解释,我想这是因为在新的这版框架下,我优先把原理、门槛这些客观的事实写清楚后,自己开始意识到我的具体需求和要面临的风险是什么。这也是这篇文章我最想和大家,特别是一些可能和我有相似焦虑感的朋友传递的感受。
在我们用万字长篇梳理了Openclaw本身的优劣势,其所具备的价值和意义,我们能够以更加全面的视角重新认识它,用我们自己的判断去决定Openclaw是否适合现阶段的自己。
知道的越多,需求越明晰,焦虑就会越少。
所以“是否要尝试Openclaw”这个问题,也从媒体各种“跟不上时代”的宏大叙事焦虑,变为了一个个小而具体的单选题。
以及对于大多数人来说,它目前有限的能力实际上并不能对现实的工作带来实际性的改变,但它是一个好玩的玩具,希望大家在探索的过程中玩得开心~
如果你认为这篇文章还不错,可以点赞关注支持一下!这对我的鼓励非常大~
最后的最后,祝我们
保持思考,天天开心!
下期见~
参考资料
因为这次参考的比较多,为了方便各位查找我就分节列出,有需要的朋友可以自行阅读原网址
夜雨聆风