AI Agent时代的胡思乱想与养"虾"心得一
我是一个好奇心比较重的人,遇到什么新鲜事物,都想尝试一下。可人的精力终究是有限的,并不是想做,就有时间做,就有心力做。想不是一次完成,执行也不是一次完成,两者间存在一条长长的链条:想 -> 挣扎 -> 执行 -> 继续想 -> 挣扎 -> 执行 -> ...... ->完成。如果把从想到完成的时间,称为一个人的执行力,那么如何增强执行力呢?但这些答案都太“鸡汤”了,我更倾向于一个“工程化”的方式:每一个节点,都可能让事情中断。链条越长,中断点越多。高执行力,并不需要更努力,而是尽可能压缩执行链:想 -> 做 -> 完成。二
将执行链变短,最好的办法是让别人去执行,或者说找个中介去执行。自身不执行,执行链就变成了:想 -> 别人做 -> 完成。当下最火的AI Agent当属OpenClaw(小龙虾),小龙虾可以操作你的电脑,大部分需要借助电脑完成的工作,小龙虾都可以帮你做。小龙虾有一套丐版记忆系统,号称越用越懂你,本质是把一些长期记忆存到了‘memory.md’文件同时小龙虾自带一个定时任务,每天会总结与用户的对话内容,按天存到memories文件夹里。每次启动一个新的session,小龙虾会导入agents.md作为启动提示词。在出厂设置里,agents.md要求小龙虾读取memory.md以及近两天的memories记录,这就为你实现了一种‘它记得’的错觉。在刚使用时,你需教小龙虾怎么工作,它会记录到记忆系统里,下次再启动时,读到相关记忆,就不需要你教了,号称越用越好用,所谓“养虾”。、开始时你会很爽,但随着使用时间继续增加,你教给它越来越多的技能,它便会变得健忘,会忘记之前所学的技能。这种时候,要么你找到这块记忆在哪里,让它读取学会,要么你重新教一遍。抽象得讲,“养虾”的本质是在openclaw系统里不断增加新的文档,是一种熵增,熵增会导致系统逐渐混乱,直至崩溃。既然知道所有“养虾”行为都会导致熵增,那么拉开虾与虾之间差距的关键,就是虾主有没有进行熵减,这是能否用好AI Agent的核心能力。指挥AI Agent就像指挥员工,这或许是很多人第一次体验当老板。一个企业需要管理制度来维持运行,管理的本质是熵减,来减缓企业在不断熵增下走向崩溃的过程。略具体得讲,对于大模型,你可以理解为输入一句话,这句话是一个向量,这个向量会激活一个向量空间,在这个空间里根据概率生成一个向量,也就是一句话来回复你。(个人理解不一定准确)当你的指令越明确,这个向量激活的向量空间越相关,生成的向量就越接近你说需要的答案。我们知道,OpenClaw每个session启动前会导入长期记忆以及近两天的短期记忆,这作为开局输入,会激活一个对应的向量空间。如果你之前教过的技能不在长期记忆里,也不在近两天的短期记忆里,那么就不可能生成到你想要的结果,除非你找到记忆所在让openclaw读取,或者重新教一遍(激活对应的向量空间)。但如果你把所有的内容都保存到长期记忆里,同样也会造成问题,因为假设你需要的是A,但作为初始导入的记忆为A,B,C,D,那么激活的向量空间不会跟A强相关,生成的结果就不会那么精准---直观感受就是变笨,能完成,但完成得不好。我采用的解决方式是将长期记忆memory.md变成了一个目录,里面不记录任何技能的详细信息,只记录索引,这个索引可以多级。第一级文档,记录有哪些skill分类及各分类文档所在目录。第二级文档,记录此分类下有哪些skill,及各skill所在位置。总得来说,就是要用最简练的初始导入内容让龙虾找到最精确的路径,最后一步记录详细内容,前面都是索引,不引入无关内容,从而使激活的向量空间与要解决的问题强相关。三
在可预见的未来,AI Agents不止于执行,还会变成每个人的注意力入口。这实际上是将注意力入口放到了AI Agent身上。个人生产力天花板将被重新定义,真正稀缺的不再是执行力,而是‘把注意力持续放在最高杠杆事情上’的能力。Agent把低价值决策和信息筛选全部接管后,人终于可以把认知资源解放出来,做真正需要人类独特创造力和判断力的事。注意力经济将进入新阶段,未来的竞争不在于内容展现形式,不在于APP形式,网页UI,而是谁能成为用户最信任的"注意力分配器"。当每个人都有一个高度私人的AI注意力入口时,内容、软件都必须转向‘如何为用户的Agent提供高价值、可结构化的信号’。