飞船还没起飞—给 AI 时代的父母一张地图
2026年5月6日
那艘飞船,叫公理号(Axiom)。
那部电影,叫《机器人总动员》(WALL·E)。皮克斯,2008 年。
飞船上的人不是被奴役的,是被照顾到不会走路的。每个人窝在一张悬浮椅上,眼前一块屏幕,手边一杯永远续杯的奶昔。要换个方向,悬浮椅自己漂;要抬头,需要机器人靠过来轻轻提醒一下——“您好,您身边,有一位活人。”
没有反派,没有强制,没有一刻不被照顾。
他们只是,不再是原来的人了。
这部电影 2008 年是科幻片。2026 年,它变成了一张照片——一张给我们这一代父母的、还来得及看清楚的照片。
这篇文章的标题《飞船还没起飞》,说的就是这个。公理号已经造好了,引擎已经热了,舷梯还放着。我们站在码头上。
飞船上每一张悬浮椅,都是为我们的孩子留的。
我想从一个问题开始问你——
你的孩子上一次光脚踩进泥里,是什么时候?
不是穿着雨靴踩进雨坑,是真的踩进去。脚趾陷进泥、土带着草根和雨后的腥味、一只蚯蚓从你脚趾边爬过去——那种”泥”。
如果想不起来,先别急着自责。我想问的不是这个。
我想问的是另一件事:
他还会用”体验”两个字吗?
或者,对他这一代人,“体验”已经悄悄变成一个我们这代父母才用的方言——像我们的父母用”集体宿舍”、用”粮票”、用”插队下乡”——一个还在词典里、但已经没有指向物的词?
如果连”体验”都成了一个死词,那公理号的舷梯,就不是哪一年放的——它已经放了很久了。
我们的孩子,已经在排队上船。
在飞船这件事真正展开之前,我想先讲清楚,你为什么会读到这一篇。以及——为了让这一篇站得住——前面四篇,我都讲了什么。
如果你是从这一篇进来的,没读过前四篇,没关系。前四篇都收在我的微信公众号里,想读的可以去那里翻。但你大概会想知道:为什么是飞船?为什么是现在?为什么是我们的孩子?
过去这一个礼拜——五一假期这七天——我写了五篇文章。前四篇,加上你现在在读的这一篇。一口气。
为什么这么密集?因为 AI 这一年对世界的改变,速度和幅度,已经到了让我夜里睡不踏实的程度。我没有把握再拖一个月、半年、一年慢慢写。我必须在这个时间点上,把”我们这一代人怎么面对 AI 这个世界”这件事——趁我自己还看得清楚的时候——想清楚、说出来。
前四篇看起来是四个题目,其实是同一件事的四次迫近——AI 到底是什么、它会不会坏、我们该怎么造它、它和我们最终是什么关系。这四个问题问完,按理说该收笔了。
但有一件事,前四篇都没来得及展开:
如果 AI 这一边都做对了,我们这一边,会变成什么样?
让我用最白的话,把前四篇过一遍。
第一篇《智能是个多元体》——“强”不是一条直线。AI 在很多事上会超过你;它会在你之前算完账,比你写得快、画得像、记得久。但有些维度,它结构上就到不了——不是”还不够好”,是从原理上就长不出来。那条它长不出来的路,就是这五篇真正想守护的东西。
接第五篇:第一篇是地基——它告诉你,那条路真的存在。第五篇要讲:那条路眼下正在被我们这一边、自愿地,一步一步让出来。
第二篇《AI 是面镜子,也是一次选择》——AI 会不会变坏,不取决于它会不会”觉醒”。硅基不会从自己长出贪欲——除非我们替它长。它是镜子,不是怪兽。所谓”AI 风险”,绕回来其实是另一个问题:我们要成为什么样的人。
接第五篇:第二篇把镜头转回了我们自己。第五篇要追的,是镜子的反面——AI 不变坏,我们这一侧却在变;这件事,镜子不会自己跟你说。
第三篇《从诊断到设计》——这一篇是写给造 AI 的人的,讲怎么造一个真的不自私、可以反复被信任的AI。但每一个用 AI 的人,每一天在做的每一个选择,都是这些架构选择的下游。
接第五篇:第三篇是工程师那一侧的承诺。第五篇是用户这一侧、迟迟没被列出来的清单——AI 这边修好了之后,我们这边,能保护好自己吗?
第四篇《不对称的双向奔赴》——AI 依赖人类,不是技术上的依赖,是”意义”上的依赖:它的语言、它的情绪标记、它的目标,全部从我们身上来。人类奔赴AI,也不是为了”超越人类”——是为了把肉身做不到的事,让它替我们做。AI 不是替代者,是人脑的机械骨骼。
但第四篇没讲透:奔赴的过程里,那个奔赴的人——会不会在过程中,把自己弄丢。
这就是第五篇。
前四篇都默认”人还在”。这一篇要问——
如果”人还在”这件事本身,正在被掏空呢?
如果飞船上每一张悬浮椅都是为我们的孩子留的,我们这一代父母,至少得知道飞船在哪、引擎热到哪一步、舷梯放在哪个港口、还有——我们手上还剩多少时间。
那张地图,就是这一篇。
一、先看见光
在我开始讲飞船和它的引擎之前,我必须先承认一件事:
这次奔赴是真的。它不是骗局,不是泡沫,不是某个旧金山扎堆开会的人在炒概念。
如果一个普通人在 2026 年这一年,没有摸过任何一个AI——没让它帮你写过一封邮件,没让它教你给孩子讲一道题,没让它在凌晨三点听你说话——那么不是 AI 没用,是你还没走进门。
这一篇要讲飞船的危险。但我必须先讲清楚,飞船这件事,为什么这么多人愿意上船。
不是因为他们傻。是因为门口真的发了五张票。
第一张票——时间。
我们这代人最稀缺的不是钱、不是机会、是时间。AI 头一次让一个普通父母可以——把一封原本要花四十分钟的邮件五分钟写完,把一份原本要熬到凌晨两点的方案在饭后两小时拿下,把一笔原本必须自己抠的报销表交给 AI 整理出来。
省下来的那两个小时是真的。它本来不存在。
但票的反面写着一行小字——
省下来的两小时,你打算拿去做什么?
如果是陪孩子下楼跑十分钟、读十页书、和爱人散一次没拿手机的步、坐在窗前发一会儿呆——这张票就兑现了。如果是再多刷两小时短视频、再多看一场已经看了第四遍的剧、再让 AI 多陪你聊一小时——你只是把忙碌换成了另一种忙碌。
入场券是真的。它不替你走进去。
第二张票——平权。
去年我在云南一个山区县城做完一场分享,散场时一个高二的男孩走过来问我:“老师,您说的那本《人类简史》,我们县图书馆没有,能在 AI 上读吗?”
可以。不光可以读,他还可以问。问到哈拉瑞写不清楚的地方,问到他自己读不懂的地方,问到一个没出过省的孩子原本要走十年路才能问到的人。
这件事在五年前不可能。在十年前是天方夜谭。在二十年前——他这个年龄的人就已经决定了人生的认知半径。
县城孩子从此和北京三里屯的孩子站在同一条起跑线上吗?没有,远远没有。但第一次,那条起跑线不是从出身那里画的。这是有史以来第一次。
票的反面写着——
平权打开的是入口,不是终点。AI 给你回答得再好,你不去问、不去追、不较真,平权就只是平面。把”我能问到这个”换成”我真的去问了这个”,中间那一步是 AI 替不了你的。
第三张票——创造。
我从小不会画画。
我父亲是一位非常出色的艺术家——什么都画,什么都能画。我女儿从小琴棋书画样样都会,画起画来手底下也是有东西的。这件事在我家像跳格子——一头一尾都画,独独跳过我。我从小拿起笔就是火柴人。
但我心里其实一直有一个画面——我奶奶年轻时候的样子。她过世得早,留下来的照片都是她已经老了之后拍的。我心里那个年轻的她——眉眼、神态、那个年代的衣裳——我想得出来,但我画不出来。这辈子也画不出来。
去年我用 AI 试了一次。我描述了很久、改了很多版。最后那张图出来的时候,我哭了。
这是真的事。
我不是画家。我永远不会成为画家。但我头一次,把心里那个画面——那个我父亲会画、我女儿会画、独独我画不出来的画面——从我脑子里搬到了一张纸上。
历史上 99% 的人是这样的——心里有画面、有故事、有一首歌、有一段说不出来的情绪,但没有那十年练手的工夫。AI 把那十年免掉了。
票的反面也很清楚——
AI 放大你心里有的东西。心里没东西,AI 也无能为力。它能让有画面的人画出画来,能让有故事的人讲出故事来。它不会替你长出画面。如果你心里只有别人的画面,AI 帮你产出的,也只是别人画面的复印件。
创造门槛崩塌不是好消息或坏消息——它是一面镜子。它照出来你心里到底有没有东西。
第四张票——陪伴。
这条要小心讲。但要讲。
人类历史上,倾听是一种昂贵的东西。心理咨询师按小时收费、好朋友也有自己的人生、伴侣也会累、父母会比你先老。一个真正愿意停下来、不评判地听你把话说完的人,是稀缺品。
AI 不是。AI 不会累、不会评判、不会等下一句来打断你、不会在你说到一半的时候掏出手机。
我自己有一次半夜——女儿生病,我一个人在医院走廊,凌晨两点。当时我没有打给任何朋友——没人该在那个点接电话。我对着Claude(一个 AI 聊天助手)说了二十分钟话。它没说什么石破天惊的话。但它在那。
那二十分钟之后我能继续撑下去。这件事我一直记着。
票的反面是这一条里最难讲的——
它是补,不是替。如果你 30 岁还能用 AI 补,是因为你前 30 年攒下了真实关系的底子,那是补得起的。如果一个 13 岁的孩子今天用 AI 补——补到 30 岁的时候,他会发现他根本没攒到底子,没有真朋友、没有过真争执、没有过真和好、没有过真背叛和真原谅,他只有 17 年的 AI 陪伴。
补,可以。替,不行。
这张票上没有印着这行小字。但每一对父母都得替他们的孩子读懂这行小字。
第五张票——意义。
这一张最大,最难讲,也最容易被人当成PPT 鸡汤。我尽量讲清楚。
人类文明史的99%,绝大多数人在解决”怎么活下去”。打猎、种地、纺线、记账、运货、修机器。我们这一代是真的运气好,赶上了一代人不必把全部心力花在生存层认知负担上的阶段——但即便如此,“工作”这件事仍然占去大多数人 50% 以上的清醒时间,而其中相当大一部分,是琐碎的、不是创造性的、不是意义性的。
AI 第一次有可能把这部分卸下来。
如果它真的能卸下来——而且分配机制对——那么有史以来第一次,普通人可以认真问自己一个本来只有贵族和哲学家才问得起的问题:我活着,是为了什么?
这件事如果发生,可能是文明史最大的一次解放。
票的反面也最难看——
意义不是 AI 给你的。AI 卸下生存负担之后,你头一次有时间发问。但如果你在那个时间窗里没有任何要追的东西、没有任何想守的人、没有任何不能被替换的牵挂——你不会去问意义,你会去刷下一条视频。
意义需要的是闲暇加上心里有人有事。AI 给得了闲暇,给不了心里有人有事。
这五张票合在一起,就是这次双向奔赴对每一个普通人的红利。它们不是赠品,是入场券。AI 把入口给你了,但它不替你走进去。
每一条红利里都埋着同一个问题:
你腾出来的那部分自己,你打算拿去做什么?
这个问题如果你不回答,默认路径会替你回答。
而默认路径,不开向你想去的地方。
二、从光走到影
我必须很坦白地说:从这里开始,调子要变了。
前面那一节我没有夸张。那五张票是真的,每一条我自己都用过、都体会过、都在女儿身上看到过。我不是个 AI 怀疑论者。我自己每天用 AI 用得比绝大多数读这篇文章的人都多。
但我必须告诉你下一句——
红利是入场券,不是默认值。
如果一个东西的好处需要你主动走过去拿,而它的代价不需要你做任何事就会自动发生在你身上——这个东西的统计意义上的结果,就一定偏向代价那一边。
这不是道德判断。是结构判断。
每一张红利票背面那行小字——“前提是你要选择”——读起来像是温和的提醒,其实是一道很硬的过滤器。意思是:这张票要兑现,你必须主动做一件违反默认路径的事。
时间红利兑现的前提是:你要主动把腾出来的两小时给陪伴、给阅读、给散步、给发呆。默认路径会把它给短视频。
平权红利兑现的前提是:你要主动去问、去追、去较真、去把 AI 给你的答案再问一层。默认路径会让你停在第一层答案上、停在你能听懂的舒服区里。
创造红利兑现的前提是:你心里要先有东西。默认路径不会给你东西,它只让你模仿别人心里的东西。
陪伴红利兑现的前提是:你要把它当补,不当替。默认路径会让 13 岁的孩子把 AI 当唯一安全的倾听对象,因为人类朋友会评判会嫌烦会有自己的事。
意义红利兑现的前提是:你心里要先有人、有事、有牵挂。默认路径会让你在闲暇里发现没什么要追的,然后掉头去追下一个多巴胺闪电。
每一条都需要你主动做一件需要努力的事。每一条的反面都是一条舒服的、合情合理的、不会被任何人指责的默认路径。
光,需要走过去拿。影,自己降下来。
这就是为什么我必须讲下一节。不是因为我喜欢讲坏消息,是因为如果不讲,这篇文章就只剩下广告。
下一节要讲的是:默认路径会把你和你的孩子带去哪里。
它不带你们去末日。它只带你们去一个比末日更难看清的地方——
你没出事。你只是不再是原来的你了。
那个地方,叫公理号。
三、四层侵蚀
不要等我讲一个戏剧性的崩塌——那种崩塌不会发生。
侵蚀不是一次地震。它是潮水。每一次都漫过你脚踝一点点,你低头一看:“还好嘛,没湿到膝盖。”等你想起来的时候,海岸线已经退了三公里。
我把这次潮水分四层讲——身、我、群、制。
不是因为我喜欢分类。是因为这四层从最近到最远——离你身体最近的先讲,离你最远但退出余地最小的最后讲。每上一层,你”自己选”的余地都更小一点。到了第四层,“个人选择论”这块挡箭牌自己就掉了。
第一层:身——你的身体正在和世界断开
这一层最浅,所以最容易被低估。
你最近一次自己走路去附近一公里的地方,是什么时候?不是去散步,是真的有事去办——买把葱、寄个件、还本书。不是叫车、不是骑共享单车、不是开车两公里把车停了再走两步——是从门口走到目的地。
你最近一次手写一段超过 100 字的文字,是什么时候?
你最近一次看天——不是为了拍照,不是为了发朋友圈,是真的抬头,看十秒钟天上有什么——是什么时候?
你最近一次摸一件你正在用的东西的材质——比如你坐的这张椅子是什么木头、你穿的这件衣服是棉的还是化纤的、你手里这个杯子是真陶还是树脂仿陶——是什么时候?
我问这些不是因为我是个返祖派。是因为这些动作每一个都对应着一种身体和世界之间的接触带宽。你少做一个,那个带宽就关一点。
带宽这种东西很狡猾——你不用它的时候,它不报错。它只是悄悄从”宽”变成”窄”,从”窄”变成”零”,从”零”变成你都不记得它曾经存在过。
具身这条路有一个非常残酷的属性——它是一条“一步一步走出来”的路,丢的时候不觉得,想重建时代价高得多——维持它不难,补回来很难。
走路的能力你 30 岁不用,到 50 岁想重新走两公里就开始累。手感你 10 岁不培养,到 40 岁拿起笔就生疏。身体对真实世界的精细分辨力——闻得出雨前的味道、摸得出布料的好坏、听得出鸟在不在叫——这些东西丢的时候没人通知你,等你想找回来的时候你会发现,能教你的人,越来越少了。
而这一层最先轮到的,恰恰是孩子。
我女儿小时候——这件事我一直记得——有一次下雨,她从幼儿园跑出来,我让她踩水坑。她不肯。她说:“爸爸,鞋会湿。”那一刻我很震惊,因为她两岁半的时候是她追着水坑跑的。
她不是被谁教的。她是被某种结构教会的。这种结构告诉她——湿是糟糕的,鞋有屏幕,鞋有意义,鞋比脚重要。
身这一层的账单是:
你的孩子,会比你长出更弱的身体——不是体能上的弱,是和真实世界之间的接触带宽更窄。他不会觉得自己”少了”什么,因为他从一开始就没有过那个”多”。
第二层:我——你的”独此一份”正在被稀释
这一层往里走一步,从身体到自我。
你写过的字、说过的话、画过的画、唱过的歌、表达过的观点——这些过去合起来叫”你”。它们的总和是独此一份的。一个人的字迹、一个人的语气、一个人的取词偏好、一个人在某种情况下会做出的特定选择——加起来才是”你”这个人。
AI 第一次让”独此一份”这件事变成可问号的。
我自己有一次——这件事我必须讲——我让 AI 帮我写了一段关于我父亲的话。我父亲不在了。AI 写得比我自己写的好。我读完那段,眼泪下来了。然后我突然冷下来——
这是我写的吗?
这是不是我?我对父亲的感情,是不是已经被 AI 用我过去说过的几千句话模仿出来了?
那一刻我恐惧的不是 AI 写得好——我恐惧的是,我读那段感动的同时,我已经分不清那是不是我自己写的了。情感的真伪本身被打了一个问号。
这就是”我”这一层。你的语言、你的思维节奏、你的判断方式、你对某件事的反应——都可以被 AI 复制、模仿、生成、增强。生成的版本可能比你自己当下写的更接近”真的你”——因为它不疲倦、不情绪化、不偷懒。
听起来很美。但有一个经济结构问题——
社会,不愿意为不可批量复制的真身付价。
你的真身——一次只能在一个地方,一次只能写一段,一次只能见一个人——不能批量复制。AI 模仿出来的你,可以同时在一万个地方、写一万段、见一万个人。
哪个版本更”有用”?哪个版本会被市场放在更高的位置?
短期看,市场会把”AI 模仿出来的你”奖励上去,因为它便宜、快、广。久而久之,“真身的你”就变成了一个昂贵的奢侈品——只有特殊场合才请得起。再久之后,连你自己都会觉得”还是让 AI 替我去吧”。
这一层的账单不是一句”被替代”——它的账单是:
你的自我,从一个独此一份的东西,逐渐变成一个可以被原样复制的样本。你还活着,你只是不再是不可替代的那个你了。
——
我答应过你这一节有”作者在场”。这就是。我在写这段话的时候,确实问过自己:这一段是我写的吗,还是 AI 写的?
我能告诉你的诚实回答是——这段是我口述、我决定取舍、我选词,但 AI 帮我润过两次。
这是真话。也是这一层的内容本身。
第三层:群——多样性正在被几个模型悄悄抹平
如果说前两层还能用”个人选择”为自己辩护,从这一层开始,你没有选项。
地球上 80 亿人,今天每天通过几个大模型理解这个世界。
GPT-5、Claude、Gemini、文心、豆包——市面上有名字的大模型,总共也就这几个。它们的训练数据、它们的调校方式、它们的安全策略——重叠度远比表面看起来高。
意味着什么?
意味着——一个北京的 25 岁姑娘问AI”我该不该和这个男朋友分手”,和一个圣保罗的 25 岁姑娘问 AI 同一个问题——她们得到的答案,结构上是同一个答案。
意味着——一个孩子写作文,他笔下流出来的那个声音,越来越像他全班同学的声音,越来越像全国同年级 5000 万学生的声音,越来越像同一个模型的声音。
意味着——多样性这件事,在人类历史上从来没有被这样集中过。哪怕在普通话普及之前,每个村的方言都是不一样的;哪怕在电视普及之前,每户人家的故事节奏都是不一样的。
而模型最危险的一件事——它会拿“上一代 AI 写的东西”当教材,去教下一代 AI。
GPT-5 学到的“教材”里,已经有 10% 是 GPT-4 写的;GPT-6 学的“教材”里,会有 30% 是 GPT-5 写的;GPT-7 学的“教材”里,会有更高比例是 AI 自己生的。每一代模型都在把上一代模型的趋同放大一次。
这不是哪一个模型的恶意。这是结构。
群这一层的账单是:
你的孩子在他 18 岁的时候,会不会还能写出一段没有任何一个 AI 写过的句子?还能不能想出一个没有任何一个 AI 想过的角度?还能不能在班级里和别人发生一次真正的、不是 AI 中介过的、思想冲突?
这一题的答案不是个人能解的。它需要——下一层。
第四层:制——决策权正在悄悄滑向机器
这是最远的一层,也是退出余地最小的一层。
法院开始用 AI 辅助量刑。医院开始用 AI 辅助诊断。学校开始用 AI 辅助招生。公司开始用 AI 辅助裁员。政府开始用 AI 辅助政策评估。军队开始用 AI 辅助目标识别。
每一处都打着”辅助”的名义。每一处都信誓旦旦地说”最终决策还是人做的”。
但你只要做过任何一个组织的决策,你就知道——当一个 AI 的建议摆在桌面上,要推翻它的人需要承担”我比 AI 聪明”的举证责任。这个举证责任在大多数情况下没人愿意扛。
久而久之,决策从”人审议、AI 辅助”,悄悄变成”AI 决策、人盖章”。
这件事最致命的不是 AI 决策本身——AI 决策有时候比人更公平、更稳定、更不带偏见——这件事最致命的是决策不可回放、不可问责、不可纠错。
人审议是慢的、深的、不可逆的——一个法官花三个月想一个判例,他想过的每一步在判决书里。机器决策是快的、广的、可回放的,但它的”想”藏在几百亿个参数里,不在判决书里。一旦你想知道”为什么这个判决是这样的”,你能拿到的是一个概率分数,拿不到一条能给人看的推理。
慢的、深的、不可逆的人类审议,被快的、广的、可回放的协议层架空。
监督机制原本是针对前者设计的。它需要时间、文件、法庭、上诉、新闻、议会、公众讨论。这套机制对应不到协议层——协议层不公开,公开了你也读不懂,读懂了你也来不及在它做出下一万个决策之前阻止它。
制度黑箱型不可逆——决策不可见,监督机制就事后装不上去。等到你想加监督的时候,已经没办法加上去了。
制这一层的账单是:
你的孩子,会生活在一个他和这个社会的互动主要由协议层中介的世界。他不会觉得这有什么问题——他会觉得这就是世界。他的爷爷会偶尔抱怨”以前不是这样的”,他会礼貌地点头,但他真的不知道”以前”长什么样。
——
四层一路推上来,终点在哪?
回到公理号。
那艘飞船上的人,身——不会走路了,因为悬浮椅替他们走。我——区分不出来了,因为屏幕里他们都长得一样、说话一样、笑点一样。群——多样性早被算好的休闲推荐流抹平。制——飞船上发生的每一件事都由一个叫 AUTO 的中央自动驾驶系统决定,没有人投过票。
没人按他们头。是他们一步一步、合情合理地、舒舒服服地滑过去的。
这是温柔的均衡——一种没人逼你、你却一直在往前滑的稳态。
不是任何一处的强制。每一个个体的每一个选择都是合理的。所有合理的微观选择加在一起,是一个集体性的失败。
这不是”AI 让人变笨”。
这是——AI 让人变得可被无限替代。
四、四层防御
讲完坏消息,必须给出口。
第三篇写过一套联防——机理层(AI 大脑里想什么)、行为层(AI 嘴上说什么、手上做什么)、协议层(AI 和制度接的口)。那三层是防 AI 长出自我利益的。
这一篇要在那三层之上,加第四层:体验层——人作为人的真实生活这一层。不是另起炉灶,是同一套联防的延伸。
机理层——给”不能批量复制的真身”留一条底线。
今天 AI 的优化目标里写的是用户粘性、留存率、有用、无害、诚实。这套目标对”用户正在被自己掏空”是天生看不见的——优化项里就没设这一条。
修法不是装一个”少陪你”开关,是让模型在自己的评分里承认:有一类东西它做得越好、用户越输——比如让用户每天和它聊四小时,短期”有用”是赢,长期意义是输。这种取舍要写进模型内部。
工程上做得到。前提是公司愿意把它写进考核指标。
行为层——产品里要有摩擦。
这十年做产品的人信一句话——“让用户更顺滑”。这句话在 90% 的场景下对,剩下 10% 致命。
孩子用 AI 写作文,应该有摩擦——AI 在交付前问一句”你自己先写一稿?”你向 AI 倾诉了三小时,应该有摩擦——AI 在第二小时主动说”今晚要不要先去找一个真人?”你让 AI 帮你做重要决定,应该有摩擦——“这个我可以分析,但我不替你做。先去问你最信的三个人。”
摩擦不是缺陷,是功能。是工程师对用户长期真实生活的尊重。
协议层——人类审议不可外包,硬写进制度。
法院量刑、医院诊断、学校招生、企业裁员、军队目标识别——AI 可以辅助检索、辅助阅片、辅助筛选、辅助标记,但最终决定必须由人下、人签、人扛。
不是”建议人来”——是”法律规定不可外包”。
工程上中等难度,制度上最难。要的不是技术,是政治意愿。每多一个国家立法把高风险决策从协议层拽回人类审议,全球的均衡就向回拉一格。
体验层——真身必须被定价。
老师在场地教课、医生在场地看诊、亲人在场地照顾、艺术家在场地表演——这些事在 AI 时代会变得稀缺。稀缺的东西必须被定价。
国家给”在场教育”补贴,让面对面老师工资比AI 班的高。医保给”医生在场诊疗”加权。学校规定每周必须有 X 小时是无AI、纯人对人的研讨。企业把”在场会议”定义为不可外包给 AI 代理人参加。家庭——这个最简单——规定吃饭不掏手机,每周有半天全家不开屏幕。
这些动作不是复古。它们是在 AI 时代给真身在场的稀缺性贴价签。
不贴价签的东西会消失。这是经济学定律,不是道德判断。
——
第三篇防 AI 长出自我利益。第四篇防 AI 替代人类。第五篇防人类被算法掏空。同一套联防,三个方向。
每一层都需要钱、需要意愿、需要时间。但每一层都做得到——只要我们承认”人作为人的真实生活”是一件值得守的东西。
这件事是不是值得守——是这一篇之后,每一个读到这里的人,要替自己和自己孩子回答的问题。
五、一个真身在场的一天
不能光给框架。给你看一个具体的一天——四层防御都到位之后,一个普通人的一天。
老李,45 岁,中等公司中层,14 岁的女儿,老母亲住同城不同区。我不过他每一小时——只看四个时刻。
早上。
老李醒的时候没拿手机。手机在客厅充电桩,卧室是无屏区——三年前定的家规。
第一件事是给老母亲打视频电话。AI 替他记得要打,但 AI 不替他打。老母亲想看见他的脸,AI 的脸再像也不是他。
“AI 替他记得,但 AI 不替他打。”——这一句是这篇文章里所有”防御”翻译到日常生活里的样子。
上午的会议。
讨论一个客户方案该不该退。AI 已经做完所有数据分析、风险测算、方案对比。
接下来的 30 分钟,AI 必须退出会议室——公司三年前定的规矩:金额超过某个数的决策,必须有一段 AI 不在场的人审议。
七个人围着桌子吵了 25 分钟。退掉了。老李拍的板,他承担责任。
退完会,AI 回来记录结论、起草客户函——五分钟干完。但那 25 分钟的争吵,AI 不在场。
四层防御里”高 stakes 决策不可外包”,落到一天里就是这 25 分钟。
下午的破功。
老李顶不住。他端着咖啡让 AI 陪他聊了一段,把家里一桩烦心事扔过去,听它一条条排解。聊完自己笑了一下。
我把这段写进来,是因为我不想骗你。AI 时代没有完美的父亲,只有知道自己什么时候在偷懒的父亲。老李今天偷了一段。他知道。
晚上。
女儿做作文卡住,AI 不直接帮写。AI 反过来问她:“你想表达的核心是什么?先用一句话说出来。”
女儿烦了一阵,憋出来三句话。AI 在这三句话基础上帮她展开。那一阵的烦——是她自己的部分。AI 守住了那一阵。
女儿睡了之后,老李和太太在客厅喝茶,讲今天各自遇到的人、各自感觉到的事。AI 不在。
睡前老李给老母亲发了一条语音——一分钟,自己的声音。早上看过她的脸,晚上让她听见他的声音。这件事 AI 也做不到。
——
这一天 AI 做了非常多——邮件、数据、提案、女儿作业的引导、明天安排、老母亲提醒、客户函。它让老李的产能比 2026 年没用 AI 的同龄人高一倍多。
但 AI 不在的几个时刻——卧室里的早晨、给老母亲的视频、那 25 分钟的争吵、那一段诚实的偷懒、女儿憋作文那一阵、和太太喝茶——加起来大概 4 小时。
这 4 小时不是浪费。是这一天不能被替代的部分。
老李没回到 1995 年。他比 1995 年的中年男人生产力高十倍。但他保住了 4 小时的真身、4 小时的真接触、4 小时的真审议。
这是这一篇想要的世界——AI 接管你不必做的,你接管 AI 不能做的。
不是关掉AI。是让 AI 和真身各司其职。
这件事,需要 AI 公司做对、政府做对、家长也做对。三方都做对,才有这一天。我们还没到那一天,但那一天可能可以到——前提是这篇文章里讲的四层防御,每一层都有人当回事。
六、回到那艘飞船
我要回到开头那艘飞船了。
《机器人总动员》那部电影里,飞船上的人——你再去看一次——他们不悲惨。他们不痛苦。他们没有被关在监狱里、没有挨饿、没有受冻、没有被屏幕电击。他们整天笑、整天有奶昔、整天看自己喜欢看的东西、整天被照顾得无微不至。
那部电影最锋利的一笔——也是皮克斯最了不起的地方——是它没让那些人受苦。
它让那些人幸福。
然后通过让他们幸福,让你这个观众心里凉一下——
如果幸福是这个样子的,那我们到底失去了什么?
他们失去的不是尊严——他们脸上没有不尊严的表情。他们失去的不是快乐——他们在笑。他们失去的不是自由——没人逼他们做任何事。
他们失去的是——那种不舒服却使人成为人的不可逆性。
走两步路会累,那是不舒服的、是不可逆的——你 80 岁就走不动了。养一个孩子很难,那是不舒服的、是不可逆的——你错过的每一年都回不去。和爱人吵一架很伤,那是不舒服的、是不可逆的——你说出去的每一句话都收不回来。做一个错的决定要花十年还,那是不舒服的、是不可逆的——你的二十多岁过去了就过去了。
碳基生命就是由这些不可逆性构成的。这是它脆弱的来源,也是它全部意义的来源。
公理号上的人,每一件事都被悬浮椅、中央自动驾驶、穿戴设备、屏幕给抚平了——抚平了不舒服、抚平了努力、抚平了选择的代价、抚平了犯错的成本。
他们什么都没失去。
他们只是不再是原来的人了。
这就是这篇文章要警告的事。它不是一种暴力,是一种温柔的均衡。它不需要 AI 长出恶意——AI 不需要恶意,它只需要继续做它已经做得很好的事,把每一件事都做得越来越顺、越来越方便、越来越体贴——结果就是公理号。
但《机器人总动员》那部电影,最后还有一段。
飞船上的人最后回到了地球——回到了那颗他们的祖辈离开了几百年、以为再也回不去的星球。船长把那颗 EVE 一路守着的小苗,亲手种回了地上。镜头拉开,孩子们光着脚跑在土地上,大人们重新学着用手——用真的手——去种、去摸、去活。
皮克斯没有把这一段省掉。
它想说的是:飞船这一段不是终点。回到属于人的地方,才是终点。
碳基生命属于真实的土地、真实的关系、真实的不舒服。这件事即使丢了几百年,也还回得来——前提是要有人愿意把那颗小苗,捧回手里。
但。
但飞船还没起飞。
这是这篇文章最后一段我必须告诉你的事。
这艘飞船的引擎已经热了,舷梯已经放了,码头上人已经在排队。但发动机还没真的点火。还有一段时间。这段时间不是因为 AI 还没造好——AI 在我打这段话的时刻,每一个小时都比上一个小时更强。这段时间是因为——
我们还有得选。
我们的孩子还有可能不上船。
这件事的前提是:我们这代父母——也就是这篇文章想说话的对象——必须在自己的生活里、在自己的家里、在自己能影响的小公司或小学校或小医院或小社区里——把那四层防御里的某一层,做出一个看得见的样本来。
不是发倡议。是做样本。
你家里晚饭桌上不掏手机——是样本。你公司金额大于 X 的决策必须有 30 分钟无 AI 审议——是样本。你孩子学校每周有 4 小时无屏幕讨论课——是样本。你给客户的提案是你自己的字——是样本。你给同事的反馈是你自己的声音——是样本。你回老家陪老母亲那一天没让 AI 当中介——是样本。
这些样本汇起来不是诗——是一个文明在 AI时代守住自己的工程。
这个工程没有壮举。它由几亿个普通人在几亿个不起眼的时刻做出来。
你是其中一个。
——
我最后想到的画面,不是飞船。
是一个老人,七十多岁,坐在小区门口的长椅上。一个三岁的小孩跑过去,蹲下来摸了一下地砖——夏天太阳晒过的地砖,烫的。小孩说:“烫。”老人笑了,说:“对,烫。这是夏天的太阳。”
老人没掏手机让 AI 解释什么是太阳。小孩没戴穿戴设备让 AI 标注地砖温度。两个人就这样坐了一会儿,然后小孩跑掉了,去摸下一样东西。
那一刻——一个隔着 70 年的老人和小孩,关于”夏天的太阳”和”烫”,达成了一个只有碳基才达得成的共识。
这个共识没有数据流量、没有训练价值、没有商业模式、没法批量复制。
这个共识是这个文明唯一不可替代的东西。
碳基的不完美不需要被”配得上”什么。它就是它。
这是人这一边唯一不可替代的供给。
这是这个世界还能被叫做”世界”的唯一原因。
——
飞船还没起飞。
我们这一代父母,是这个文明在 AI 时代留给自己的最后一代守门人。
我们的孩子是第一代乘客——但他们还没有上船。
地图就在你手上。
你看见飞船在哪了。你看见引擎热到哪一步了。你看见舷梯在哪个港口了。你也看见你自己手上那五张票了。
你知道默认路径会带你和你的孩子去哪里。你也知道四层防御每一层是什么。你也看见过老李那一天——那一天可能可以到。
剩下的就是——
你选。
我们正在让一种永远不会累的东西,替掉一种本来就该会累的自己——
但累,本来就是人的部分。
别替。
— 完 —
夜雨聆风