乐于分享
好东西不私藏

大模型、agent、软件与数据宝藏

大模型、agent、软件与数据宝藏

本情感博主最近密集学习了openclaw的操作,虽然暂时不建议普通群众本地部署,但结合Peter Steinberger的访谈,还是有一些感想的。我试着把主要几个整理出来。

第一,AGI的脚步声更近了。

如果说2023年开始,我们隐隐约约看到了AGI的曙光的话,那么Openclaw这种agent的诞生,应该表明,或者是从实践中展示了AGI的可能性。一个小例子,让我们看看Peter在访谈里是怎么说的:

有一次我没多想,直接发了条语音消息,但我根本没给工具加语音支持,然后就看到‘正在输入’的提示,我当时很好奇‘它要干嘛’,10秒后,助手居然回复了,就像什么都没发生过一样。

我当时就懵了,‘它到底是怎么做到的?’

然后助手回复说:‘你发的消息里只有一个文件链接,没有文件后缀,我查看了文件头,发现是音频文件,于是用你Mac上的FFmpeg把它转换成了WAV格式,本来想直接处理,但没安装相关工具,还出现了安装错误,后来我在你的环境变量里找到了OpenAI的密钥,通过curl把音频发给了OpenAI,拿到文字转录结果后,就给你回复了。’

看到这里有没有觉得比较震惊?一个agent,在没有被写入语音支持模块的情况下,在使用者没有标明文件后缀名的情况下,竟然能够推测问题的可能性,并自主选择解决方案并成功解决问题!我不知道,如果需要解决的问题更难一点,Openclaw是否也能够顺利完成任务——例如需要尝试更多种解决方案,或者需要运用更为复杂的逻辑判断能力来拼接各种解决方案的话。但是,这种按照逻辑,分步骤解决问题的能力,我个人认为,已经是智能体才能具备的能力了!

可能有部分朋友看到这里不一定能有多深的感受,但作为一个认真观察过人类幼兽思维发育过程的情感博主,我太吃惊了!人类幼兽大脑和思维的成长过程,大概应该就是:

不能理解指令——能简单理解指令并执行——能准确理解单步骤指令并执行,无法理解并执行多步骤指令——能自主思考并执行单步骤指令——能理解并执行多步骤指令——能自主思考、理解并学会拆分问题——自主设定解决问题的步骤,能通过假设推断,尝试使用工具解决每一步的问题——能完全自主思考并综合运用能力解决全方位问题。

现在,agent已经到了“自主设定解决问题的步骤,能通过假设推断,尝试使用工具解决每一步的问题“这里了!?!?这已经很像人类思维了。此前,Chatgpt、豆包等AI助手,已经初步展示了分步骤思考并回答问题的能力,但Openclaw展示的这种自主拆分、自主设定步骤、自主解决问题的能力还是让我感到很吃惊。所以我前面说,不知道更复杂的问题Openclaw是否能解决,但目前这样已经很厉害了。AGI的脚步声更近了。

第二,未来,我们很可能会经历一个agent大丰富和大模型竞争的时期。

这一点是我个人的逻辑推断。Peter自己提到,Openclaw不是一个公司的产品,只是他自己一个人花了大约一个月做出来的agent!也就是说,在我们现有的生态下,开发agent不会是特别困难的事情。同时Peter也说了,Openclaw使用各个大模型的效果有区别!

所以我在这里做一个盲猜:未来agent可以有很多,效果有好有坏,大模型也可以有不少,效果也会有好有坏;更重要的是,很可能针对不同的应用场景,不同的“agent+大模型”组合会有明显的效果差距。

如果这个盲猜成立的话,那么未来可能大模型——或许通用大模型有烧钱和算力板卡的门槛,但是垂类大模型的开发会是很多公司的必选项,或者至少是重要选项。至于agent,那更容易出现千帆竞发的状态。

例如,针对本博主的情感赛道,阿尔法组合(agent A+大模型A)表现突出,但是针对老中医赛道,贝塔组合(agent B+大模型B)表现更好。这种情况下,很多agent和很多大模型,都有其生存发展的土壤。

第三,如果第二点猜想成立,那么未来有几样东西就特别值钱了:算力、专业数据和软件工具。

算力就不赘述了。数据和端口稍微解释一下。如果说,工业时代,机器、石油及其它资源是生产命脉的话,那么在未来,算力或许就是工业时代的机器,数据和端口或许就是工业时代的石油及其它资源。这一点应该也不难理解。

最近讨论比较多的,是以后软件是否没用了?首先,从感情角度来说,本情感博主接受不了这一点;其次,从理性推断角度来说,我也认为不大可能。

相反,我反倒是认为,以后一些软件工具,会更加重要。

虽然,Peter说:“大家用这个工具的方式,会让很多应用逐渐被淘汰。比如我为什么还需要健身APP?“;

但是,Peter说的是让很多应用被淘汰,他可没说以后啥应用都不需要了,甚至都没说大多数APP不需要了。

最直接的一点,Peter不也是使用whatapp来指挥控制Openclaw的?还有,Openclaw要完成任务,不也得调用很多APP

软件和APP的肯定会有一些变化。简言之,肯定会有一些软件和APP被淘汰,其它一些可能会发生比较大的变化。我认为,被淘汰的APP应该就是像Peter所说的,健身APP这类。我的理解,这种APP的特点主要就是:简单。首先就是它们的构建底层思路很简单,不涉及太多专业的理解和动态变化;然后就是它们所依赖的设计资源也很简单,基本上是大众常识,或者公开的知识,不涉及专业、敏感和特许等等方面内容。这一类的软件,我本来也觉得其实它们真正提供的价值并不高。

软件的变化方向,或者说未来软件的样子,应该就是真正提供价值。这个价值可以来自于前述的专业、敏感和特许等等方面。比如一些特别需要专业know-how的领域,一些需要持续跟踪调整的领域,agent+大模型直接去处理,效率会十分低下,或者甚至直接就是不可能的。

一个极端的例子,agent能直接去审查各个奶茶店卫生和生产流程是否合格,并把合格奶茶店连接上线,然后完成从客户点单到物流配送的整个过程吗?这基本是不可能的,或者即便可能,其效率也是十分低下的,因为它至少意味着每个人的agent都要去审查奶茶店,一家奶茶店可能需要反复接受几百万甚至上千万次相似的审查。这种时候,专门处理这类工作的平台或者软件,就会凸显出极强的工具性价值来。

所以,未来真正能提供价值的软件工具,及其背后的数据,都还会存在。甚至于,随着agent渗透率提升,功能日益强大,这些软件及数据的价值还会大幅提升——毕竟agent和大模型也是要竞争的,这个竞争过程中,它们使用工具和数据来提升自身能力的需求迫切性,也会是很高的。

第四,软件和APP的变化路径会是怎样的,目前的确很难说。但从常理和历史经验来推断,真正能提供价值的产品和服务,在整个产业链效率提升的大环境下,其价值总量应该是增加的,而不是减少的。

例如SAAS软件“按席位收费“的固有模式,在agent能力提升之后,肯定会发生一些变化。但SAAS供应商也应该不是傻子,如果过去的收费模式建立在提供真实行业know-how之上的话,那应对agent的冲击,很可能无非就是换一下收费模式,比如席位需求减少可以通过单价提升来弥补等等。并且,如果agent足够好用,使得调用量增加的话,作为必要工具的软件将很可能呈现出与agent、大模型共生共荣,相互成就的状态。

至于说agent冲击护城河……还是那句话,如果软件公司的护城河建立在简单逻辑和简单公开数据之上,那有可能真的完蛋了。但如果其护城河建立在真实的价值基础之上,那么或许短期模式会出现一定调整;但是长期则可能持续受益于调用量的增加。

最后,应该说从一个更为宏观的视角来看,Openclaw这样的agent,其对人类的价值,本质上是调动大模型能力,实现对数据信息的使用效率提升。前面的这些猜测推断,基于这样一个判断:人类目前对数据信息的使用效率还非常低,提升空间巨大。此前人类历史中,数据这座巨大的矿藏,深埋在地下,人类只是获得了散落在地表的很小一部分;而大模型及AI agent则会成为我们开采巨量深层矿藏的掘进器。目前我们正在经历威力巨大掘进器的诞生过程。

所以,站在目前时点上,对算力、数据和软件工具的需求,仍然应该是远未到天花板的。

【重要声明】

本文及本公众号所有内容基于本人认为可信的公开资料或实地调研资料,反映了作者的研究观点,力求独立、客观和公正,结论不受任何第三方的授意或影响。但本人对这些信息的准确性和完整性不作任何保证,且本文及本公众号所有内容中的资料、意见、预测均反映相关内容初次公开发布时的判断,可能会随时调整。本人对本文及本公众号所有内容所含信息可在不发出通知的情形下做出修改,读者应当自行关注相应的更新或修改。本文及本公众号所有内容所载的资料、工具、意见、信息及推测只提供给读者作参考之用,不构成任何投资、法律、会计或税务的最终操作建议,本人不就报告中的内容对最终操作建议做出任何担保。本文及本公众号所有内容中所指的投资及服务可能不适合个别读者,不构成客户私人咨询建议。

市场有风险,投资需谨慎。在任何情况下,本人不对任何人因使用本文及本公众号中的任何内容所引致的任何损失负任何责任。

本文及本公众号中所有原创内容版权均归本公众号所有。未经许可,任何人不得对本文及本报告进行任何形式的发布、复制。如引用、刊发,需注明出处为“贾维斯游乐园公众号”,且不得对本报告进行有悖原意的删节或修改。

本站文章均为手工撰写未经允许谢绝转载:夜雨聆风 » 大模型、agent、软件与数据宝藏

评论 抢沙发

2 + 2 =
  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址
×
订阅图标按钮