乐于分享
好东西不私藏

Stars最多的OpenClaw,为什么故意不记住你

Stars最多的OpenClaw,为什么故意不记住你

366k Stars的AI助手,藏着一个反常识的设计决定


GitHub上有一个项目,Stars数量超过366,000,是全球Star数最多的开源AI助手项目之一。

它叫OpenClaw。

如果你没听说过它,可以花三十秒搜一下。但我要告诉你的,不是它能做什么,而是它故意选择不做什么。

它的设计哲学,第一条写的是:Security and Privacy by default

翻译成大白话:默认保护安全和隐私。

这听起来像废话,很多产品都说这个。但OpenClaw的做法是彻底的——它是local-first的。AI模型跑在你自己的机器上,你的对话记录不上传服务器,用完就完,没有云端同步,没有用户画像,不积累数据。

换句话说:你用了六个月,它对你的了解,不比第一天多一个字。

这在今天是什么概念?


所有人都在往反方向跑

打开任何一款主流AI产品,”个性化”几乎是第一卖点。

ChatGPT的Memory功能,会记住你的名字、你的职业、你的偏好,下次对话时主动调用。Claude的Projects,让它持续理解你的工作背景。Gemini跟Google账号深度绑定,它甚至知道你的日历、你的邮件、你搜索过什么。

整个行业的叙事逻辑很统一:AI要越来越懂你,才越来越好用。

这个逻辑不是没有道理。你每次都要向一个AI重新解释”我是做什么的、我的代码风格是什么、我喜欢什么语气的回复”,确实很烦。有记忆的AI,就像一个真正认识你的助手,而不是一个每次见面都不认识你的陌生人。

个性化的方向是对的。问题是代价。

代价是:你的每一次对话、每一个问题、每一个念头,都变成了数据,流向某个服务器,被存储、被分析、被用来训练模型或优化广告。你以为你在用AI,AI也在”用”你。

这个交换,大多数人没有意识到,或者意识到了但觉得无所谓。

OpenClaw的设计者显然觉得:有所谓。


一个反常识的选择

我见过不少技术产品把隐私当营销词用——说自己”重视隐私”,然后在隐私政策的第三十七页写上各种数据收集条款。

OpenClaw的做法不一样。它不是说”我们会保护你的数据”,而是说”我们从架构层面让数据根本没机会离开你的机器”。

local-first不是一个功能,是一个架构选择。这个选择在工程上的含义是:你不依赖任何云服务,所有计算在本地完成,没有中间人,没有数据传输,没有可以泄露的服务器端存储。

这也意味着,它无法记住你。不是技术上做不到,而是设计上选择不做。

在366,000个Star背后,有一大批人用实际行动投票:我要这个。我要一个不记住我的AI。

这让我觉得有意思的地方在于:这不是一个小众怪癖,而是全球最受欢迎的开源AI助手之一的核心设计原则。


遗忘是一种奢侈

我想用一个老比喻来说清楚这件事。

以前的图书馆员,职业道德里有一条不成文的规矩:不记录读者借过什么书。你借了什么,还了就还了,图书馆不该知道,也不该留档案。

为什么?因为一个人读什么书,暴露的是他在想什么。思想是私密的。

数字时代,这条规矩基本消失了。你在亚马逊买过什么书,Kindle记得,推荐算法记得,广告系统记得。你搜索过什么问题,Google的服务器里有一份完整的档案,时间跨度可能长达十几年。

这些数据,单独拿出一条,都很无害。但拼在一起,就是一个比你自己更了解你的画像。

AI助手的记忆功能,本质上是这个逻辑的延伸:它记得越多,它越懂你,它也越能”利用”你。这里的”利用”不一定是恶意的——可能只是推荐你更可能购买的东西,或者让你更依赖这个平台。

OpenClaw的选择是:不要这个东西。宁可让你每次都重新解释,也不要在后台积累一份越来越详细的你的档案。

这在今天是一种奢侈。大多数人已经习惯了被记住,习惯了个性化,甚至觉得这是理所当然的服务。


代价是真实的

我没有办法假装这个代价不存在。

用一个没有记忆的AI,你确实会更麻烦。

比如,你是一个写作者,你有固定的写作风格、固定的语气偏好、固定的词汇禁忌。每次打开一个有记忆的AI,它都知道这些,你直接开工。用OpenClaw,你每次得先粘贴一段”关于我”的说明,告诉它你是谁,你想要什么。

再比如,你是开发者,正在做一个长期项目。有记忆的AI知道你的代码库结构、你的技术栈、你踩过的坑。OpenClaw什么都不知道,每次对话都是从零开始。

这个效率损耗,是真实的。不小的。

有人会说,你可以把背景信息保存在一个文本文件里,每次手动粘贴。这是真的,但这也意味着你要自己管理这份”记忆”,AI不帮你做这件事。

所以问题来了:这个代价,换来了什么?


换来了什么

换来了一件事:这个AI不会”变成”你。

这话听起来玄,但我说的是一个具体的风险。

当一个AI持续积累你的数据,它会越来越擅长预测你的偏好,越来越倾向于给你你”想要”的答案。这是个性化的副作用——一个足够了解你的系统,会逐渐变成一面镜子,反射你已经相信的东西,而不是挑战你的东西。

有记忆的AI,不是在帮你思考,而是在帮你确认你已经在想的事情。

这是一个很微妙的陷阱。你感觉它越来越好用,越来越懂你,但与此同时,它越来越少给你惊喜,越来越少提供真正不同的视角。

一个不记住你的AI,则保持着某种”陌生人”的清醒。它不知道你习惯怎么想问题,不知道你有什么固定偏见,每次对话都有可能给你一个完全不同的角度。这不总是好事,有时候很烦,但有时候正是这种”不了解你”让它能说出你真正需要听的话。

医生里有个术语,叫”不熟悉效应”。给自己看病的医生,往往比陌生的医生更容易漏诊,因为太熟悉自己的情况,反而看不见异常。AI的个性化,某种意义上,也在制造这个问题。


什么情况下值得

我的判断是:这取决于你在用AI做什么。

如果你用AI做的是高度重复、高度个人化的任务——比如处理自己的邮件、整理自己的笔记、在固定的工作流里提升效率——那么有记忆的AI对你更有价值。你需要它了解你,才能真正帮到你。

但如果你用AI做的是思考、研究、分析、或者任何需要”跳出自己”的工作——那么一个不记住你的AI,可能反而是更好的工具。它不会顺着你的思路走,它保持独立。

还有一种情况,更简单:如果你的工作涉及任何不想让第三方知道的内容——商业机密、法律文件、医疗信息、个人隐私——那么local-first不是可选项,而是必须项。

366,000个Star告诉我,这三种情况里,有相当多的人处于其中某一种。

这不是一个小圈子的极客趣味,这是一个真实需求的规模化体现。


行业的方向和个人的选择

我理解AI公司为什么要做个性化。

有记忆的AI,用户粘性更高,用户流失更难,数据飞轮转得更快,产品竞争力越来越强。这是一个完全理性的商业选择,而且对大多数用户而言,体验确实更好。

但”对大多数用户更好”,不等于”对所有人更好”,也不等于”从所有角度来看都更好”。

OpenClaw的存在,证明了另一条路是可行的。不需要积累用户数据,不需要建立个人画像,一样可以做出一个人们真正愿意用的工具。

这对整个行业来说,是一个有价值的存在——不是因为它会赢,而是因为它的存在本身,提醒了其他所有人:记住用户,是一个选择,不是必须。

我不是在说所有有记忆的AI都是坏的。我用过好几个,觉得很好用。我也认同个性化在很多场景下是真实的价值。

但我觉得值得在某个时刻停下来,问自己一个问题:你的AI助手越来越了解你,这件事你是否真的仔细想过?你愿意用什么换取这种”被了解”?


一个没有答案的结尾

最后我想说的,其实比OpenClaw更大。

我们现在处于一个时刻:几乎所有的数字工具,都在努力”了解”我们。手机、应用、搜索引擎、推荐算法、现在是AI助手。它们积累的关于你的数据,已经比你自己记得的自己更多、更详细、更连贯。

这件事发生得很自然,没有人逼你,是你主动换来的——换取了便利,换取了个性化,换取了”被懂得”的体验。

OpenClaw选择了不参与这个交换。它故意设计成不记住你,哪怕这让它在竞争中处于劣势,哪怕这让用户每次都要重新解释自己。

这是一个有立场的设计决定。

我想留给你的问题是这个:

在你的生活里,有没有哪些人、哪些工具、哪些关系,你其实更希望它们不那么了解你?如果有,你有没有认真想过,为什么?