18年我开始接触汽车座舱,那时候还是燃油车的天下,电车,增程,混动刚兴起不久,短短上十年时间,座舱已经大变样了。
从最开始的物理硬件操作功能,到半物理按键与半软开关操作,再到后面的语音控制,以及后面的视觉操作等。座舱以迅雷之势发展超出很多人的设想。
刚开始的座舱赋予车机的功能很少,只有简单的娱乐功能,电台功能,蓝牙功能等,到现在只要你想到的里面就能找到,座舱的功能也逐渐分类成,车控,娱乐,导航,语音,游戏等,慢慢的丰富座舱内容。
各个车厂也一直在丰富座舱功能,寻找新的出路,舱驾,舱泊等,从2D转3D,然后去年的AI大模型(如deepseek)争先恐后的上车,到现在想在车上装上小龙虾openclaw。
每一步都在探索座舱的出路,而座舱的大爆发还是电车的兴起,很多功能都需要电,油车的小电瓶不足以支持更多的功能,在电车上才有实际意义,功能类型也更多。

在openclaw出现之前,所有的座舱都是基于人机交互来的,而且是一锤子买卖,依赖车机OTA发版,费时费力。
前面一直吹嘘的语音功能,多意图,多指令,连续指令等功能,都是基于算法模型,语音功能来实现,这种的短板就很多了,比如对车机性能要求高,指令是提前设计好的,对多指令多意图的个数也有要求,连续指令的下发速度也有要求等,这些都限制了他的发展,这也是典型的一问一答。
包括现在语音增加语义词组的训练,模型的训练,算法的训练,也是一个长周期的事情。
还有以前的一些语音功能,比如成语接龙,闲聊,查询股票,天气等,都是基于已知的接口去做的查询,本身还是人机交互的结果。
还有现在的账户记忆,座椅记忆,场景积木功能等,都是基于已经设置好的功能意图来做的执行,每次的功能修改都依赖重新发版。
去年新起的豆包,deepseek大模型,这些AI大模型,本质上还是在做数据的查询,当做聊天工具来使用,只能当做一个消遣娱乐的工具。
以上都只是让座舱娱乐功能,或者人机交互功能更丰富一些,而openclaw的出现,可能会让座舱有重大的革命性的突破。
以前AI查询,语音闲聊,都是基于大模型来做的一些简单的操作,所有的功能都必须梳理成一一对应的功能点,意图必须提前设计好等。
而openclaw不一样,你可以把他当做一个活着的“龙虾”,可以不断学习的“龙虾”,把他当做你的分身。
它的底层还是AI大模型,但AI模型不再是人们津津乐道的亮点了,他可以是claude、GPT、deepseek,也可以三者融合。跟有些公司做语音,底层引擎可以是讯飞的,百度的,思必驰的,腾讯的,我只要他的引擎原子能力,至于端侧怎么实现,那是端侧的逻辑,我只要他的基础能力,根据每个公司引擎的侧重点去实现不同的功能。
openclaw也是一样,他的底层可以是claude、GPT、deepseek,也可以三者融合,在这些模型上创建一个新的层级Layer。而底层是那家,用户是无感的,也不需要知晓的,他享受的是上层的操作。
说了这么多openclaw到底能做什么呢?我理解他的作用主要有三个。
一个是他能自动执行功能,它替代了前面说的“语音的多指令多意图,一对一的功能”,他能自主的去执行命令,这种执行方式跟非openclaw的执行有本质区别,我有一百个功能,可以让openclaw根据车主的需要自主的去组合执行,只要给他赋予相应的权限,不再受限于产品方案规划的固定意图,每个车主的习惯不一样,用户习惯就不再局限于某个车厂产品的能力,可以根据自己的习惯去随意动态的设计。
一个是记忆功能,他能记住你的每一次习惯,意图,然后进化成下一个你,你的一个动作,一句话,他都能识别出你要做的事情,然后自动去执行,不再需要你去一句一句的下语音指令,也不需要你挨个去点击功能开关,或者恢复出厂设置后,再重新去登录账号,去设置相关功能,再去设置记忆等。
还有一个是强大的学习进化能力,如果遇到它不会的,没有见过的任务,他会创造新的技能,然后跟你确认是否正确,确认成功后,就自动扩展到他的知识库里面,变成了他的能力。
以上将openclaw吹得天花乱坠,但要实现这个效果,其依赖项也不少。
首先是openclaw对硬件芯片等有一定的要求,这个导致前面很多车机平台是不支持的。
其次再智能都需要你硬件支持这个功能,比如你要打开车窗,你要有车窗硬件控制器,不然也没办法实现打开关闭车窗的功能。
然后你得给他开权限,没有权限,他也没办法访问,也就没办法执行,这是系统安全保障,权限范围必须要确认好。
最后,我们负责的是座舱,座舱属于汽车的一部分,而汽车最大的要求就是人员安全问题,基于这个大前提,openclaw的使用面就会做限制,动力,制动等核心安全系统一定不能让其染指操作,它的任何失误都可能造成车毁人亡。
综上,openclaw可能是座舱的下一个风口,也可能是很多车企争相模仿的对象,是未来座舱的方向之一。
夜雨聆风