乐于分享
好东西不私藏

AI最大的危险,是我们开始嫌弃自己像个人

AI最大的危险,是我们开始嫌弃自己像个人

我最近有一种很具体的不安。

不是那种宏大的,“AI 会不会取代人类”的不安。

而是很细小、很日常的:我发现,AI 写出来的东西,真的还蛮不错。

它能把一段乱七八糟的话整理得很清楚,能把一个观点扩展得很完整,能把一句普通表达润色得更简练、更得体、更像一个标准答案。

更可怕的是,用久了之后,我会开始不相信自己。

我会怀疑自己是不是写得太慢了,想得太散了,表达得不够准确。甚至有时候,一句本来很自然的话,我都想丢给 AI 再优化一下。

好像只有被它整理过、压缩过、打磨过,才算“够好”。

那一刻我意识到,AI 改变的可能不只是写作效率。

它还在悄悄改变我们对“人”的标准。

我们开始嫌弃自己的慢,嫌弃自己的不完整,嫌弃自己的情绪,嫌弃自己说话没有那么漂亮。

说到底,AI 最大的危险,可能不是它越来越像人。

而是我们开始嫌弃自己像个人。

真正失去的,不是能力而是参与感

以前我会觉得,写作是我很重要的能力。

但现在,大部分人用 AI 写出来,也不是很差。

它理性、全面、礼貌、顺滑,甚至有时候比人更像一个“会拿高分的学生”。

它不会跑题,不会失控,不会突然冒出一句不合时宜的话。它擅长把一切变得完整、均衡、无懈可击。

可是,人的表达不是这样的。

人说话会停顿,会犹豫,会跑偏,会突然卡住,也会在某一个不那么标准的瞬间,说出真正扎人的一句话。

AI不会,它很擅长写金句。

很多 AI 金句像漂亮的假花,没有泥土味。

真正打动人的话,常常不是因为它完美,而是因为你能听出来,它是从一个人的经历里硬生生长出来的。

这也是我现在对 AI 写作最复杂的感受。

它确实提升了效率。

但它也会让人产生一种对速度的崇拜。

以前一篇文章想两天、删三遍、卡住半小时,是正常的。现在 AI 三秒钟给你五个版本,你就会开始怀疑:我是不是太慢了?我是不是不够聪明?我是不是早该这样高效?

但很多真正有价值的东西,本来就是慢出来的。

洞察是慢的。

判断力是慢的。

审美是慢的。

一个人真正把某件事想明白,也是慢的。

AI 可以很快给你一个像样的答案,但它很难替你经历那种混乱、迟疑、推翻、重新长出来的过程。

慢不是低效。

有时候,慢是人正在消化世界。

慢的背后是深度参与,是用心体验,而不是理性的旁观。

这才是我真正不安的地方。

用 AI 久了,我发现自己很容易从“写作者”变成“审阅者”。

我不再从一团混乱里慢慢摸出一句话,而是在几个看起来都不错的版本里,挑一个更顺眼的。

这个变化很细,但很要命。

因为写作原本不是把答案做漂亮,而是一个人参与世界、消化经验、形成判断的过程。

一旦我只负责挑选答案,我就离自己的经验远了一点。

也就是在这里,我突然理解了自己读《至高无上》时的不安。

不是因为奥尔特曼和写作有什么直接关系。

而是因为这两件事背后有同一种姿态:从参与者,变成观察者。

一个写作者如果只站在旁边挑选答案,失去的是手感。

但如果一个掌握技术权力的人,也习惯站在远处看世界,看系统,看模型,看趋势,看文明风险,他处理的就不是一篇文章,而是很多人的生活。

他会不会也把具体人的恐惧、犹豫、愤怒和不配合,整理成一组可以被优化的变量?

这才是我真正感到不舒服的地方。

观察者看得远,但看不见眼前人

奥尔特曼最让我不安的,不是他的野心。

而是书里反复浮现出来他的一种气质:他更像一个观察者,而不是参与者。

这不是一个简单的贬义。

观察者当然有优势。

他冷静、抽离、宏观。他能看趋势,看系统,看资本,看组织权力,也能看 AI 对人类文明的长期风险。

站在那个位置上,他确实比大多数人看得远。

但问题也正在这里。

看得远的人,最容易把眼前的人看小。

当一个人习惯从文明尺度看问题,他就很容易关心“人类未来”,却忽略一个具体的人今天晚上为什么睡不着。

他关心“AI 安全”、“文明走向”、“长期风险”,这些当然重要。

但一个具体的人在 AI 浪潮里的失业焦虑、尊严受损、选择权消失、关系断裂,好像很容易被压缩成系统转型中的一个变量。

这就是观察者视角的危险:

它不是没有善意,而是善意太远。

远到可以看见人类,却看不清一个人的脸。

这让我想起《卡拉马佐夫兄弟》里那个经典命题:

人越是爱抽象的人类,越可能难以爱身边具体的人。

抽象的人类没有脸,没有名字,没有情绪,也不会在你面前哭。

所以“保护人类”很容易变成一种文明尺度上的理性计算,而不是普通人可感知的信任建设。

我现实里也见过一些这样的人。

他们谈起“改变行业”、“重构生态”、“让世界变得更好”的时候,眼睛是亮的。

但一谈到一个具体用户的抱怨、一个员工的委屈、一个执行细节里的麻烦,他们很快就不耐烦了。

不是他们坏。

他们甚至真的相信自己的使命。

只是具体的人太麻烦了。

具体的人会害怕,会反复,会不配合,会提出很多“不在模型里”的问题。

相比之下,“人类”、“行业”、“未来”反而干净得多。

这就是我最警惕的地方。

有些人很爱世界,但不太会爱身边的人。

有些人愿意为“人类”承担宏大责任,却不太愿意面对一个具体人的眼泪、抱怨、脆弱和麻烦。

宏大叙事需要一张脸来校正

如果宏大视角天然容易把人看成变量,那什么东西能把人重新拉回具体?

往往不是更多数据,而是一张脸。

很多时候,苦难一旦变成数字,人就失去了感受。

灾难里死了多少人,饥荒里有多少人受苦,新闻里会有很多统计。

但真正让人突然意识到痛感的,往往不是数字,而是一张脸。

就像那张著名的照片:一个小女孩倒在地上,身后有一只秃鹫。

那一刻,抽象的灾难重新变成了一个具体人的命运。

这件事说明了一个很残酷的事实:

当苦难以数字出现时,它是统计学。

当苦难以一张脸出现时,它才重新变成人。

AI 治理也是一样。

如果只站在文明尺度上看,人很容易被看成变量,被看成成本,被看成趋势里不可避免的阵痛。

可一个普通人不是变量。

他不是“劳动力结构调整”里的一个点,不是“效率提升”里的一个代价,也不是“系统转型”里可以被吸收的噪音。

他有具体的房租、父母、孩子、职业尊严和半夜睡不着的焦虑。

从太空看地球,看不见一个人的眼泪。

AI 时代当然需要总观效应,但更需要有人从长期尺度思考文明风险。

但只站在太空是不够的。

我们还需要重新回到地面,看见一个个具体的人。

问题到这里,又往前走了一步。

如果一个人看不见具体的人,他接下来最容易做的事,就是替他们决定。

因为在他的视角里,那不是控制,而是保护。

这也是为什么我越来越警惕一句话:我是为你好。

“为你好”的终极版本,是“为全人类好”

很多人都被“我是为你好”这句话伤过。

父母会说,老师会说,老板会说,伴侣也会说。

它听起来是善意,但落到具体关系里,常常变成替你决定。

更可怕的是,这句话在 AI 时代有了一个放大版:

我是为了全人类好。

“我是为你好”,最多替你安排人生。

“我是为了全人类好”,可能替所有人安排未来。

私利有时候反而容易被识别。

但自认为无私的使命,最难被制衡。

因为它会让一个人相信:我不是为了我自己,我是在为更大的东西负责。

这句话很强大,也很危险。

很多故事里的反派,并不觉得自己邪恶。

他们真正可怕的地方,恰恰是相信自己站在更高的善意里。

拜月教主也好,很多科幻作品里的“救世者”也好,他们未必是为了满足私欲,而是认为自己看见了更高的秩序,所以有资格替别人做决定。

技术系统里的“为你好”,其实我们每天都在经历。

算法说:我知道你喜欢什么。

于是它不断推给你相似的内容。

一开始你觉得舒服,觉得它懂你。

后来你才发现,它不是更懂你,而是在慢慢缩小你。

它把你的兴趣变成标签,把你的情绪变成流量,把你偶然点过的一次好奇,变成持续喂养你的世界。

它确实在“优化体验”。

但它也可能在替你决定,你还能看见什么。

最危险的控制,未必是粗暴的命令。

也可能是温柔的推荐。

更深一层的问题是,这种“为你好”的技术逻辑,影响的不只是我们看见什么。

它还会慢慢改变我们判断“什么是好”的标准。

它让我们习惯顺滑,习惯准确,习惯无冲突,习惯一切都被修剪得刚刚好。

于是,我们又回到了开头那个问题:

当 AI 和算法都在把世界变得更顺、更快、更符合偏好时,我们会不会也开始嫌弃人的粗糙、迟疑、矛盾和缺陷?

可恰恰是这些东西,让人更像人。

人是因为缺陷,才更像人

我经常刷到一些视频。

它们可能拍得并不精致,剪辑也不高级,甚至只是一个很短的片段。

但某个人在那一刻的停顿、哽咽、发火、失态、嘴硬、沉默,突然就会击中你。

为什么?

因为你知道,那不是设计出来的。

那不是一个被优化过的表达,不是一个“用户体验最佳”的版本,也不是一个标准答案。

它就是一个人在某一刻没藏住自己。

这就是人味。

有些人说话很糙,逻辑也不那么漂亮,甚至语法都不完整。

但你就是会被他说服。

因为你听得出来,那句话不是为了显得高级,不是为了显得全面,也不是为了讨好所有人。

它是从一个人的生活里长出来的。

这也是为什么很多“不完美”的角色反而有魅力。

最近我刷到李梦演的一个角色,一个并不传统意义上讨喜的女性角色。

她有坏的一面,有攻击性,有不体面,有很多缺点。

但她也有清醒,有事业心,有对渣男淋漓尽致的鞭笞。

你未必认同她的坏,但你会觉得她有探索感。

因为她不是一个单一功能的“好人”或“坏人”。

她是复杂的。

一个完美好人往往很薄。

一个复杂的人,才有探索感。

人不是因为正确才值得被理解。

人是因为复杂,才值得被理解。

所以我现在越来越觉得,人不是因为完美才成为人。

人恰恰是因为会犹豫、会愤怒、会误解、会后悔、会慢、会说错话,才仍然是人。

平静和愤怒,理性和冲动,清醒和迷糊,善意和自私,这些交错复杂的东西,才构成一个真正有生命力的人。

如果技术最后要消灭的,是人的这些“不稳定”,那它优化掉的可能不是缺点,而是生命本身。

真正好的技术,不该把人优化得不像人

这也是我为什么会想到《道德经》。

《道德经》讲“无为”,不是不行动。

它提醒我们,不要以强控制破坏事物自身的生成秩序。

DeepMind那句口号很燃:破解智能,并用智能解决一切问题。

从技术理性的角度看,它很有力量。

但问题也在这里。

它默认世界是一组等待被定义、建模和优化的问题。

可很多时候,问题不是孤立对象,而是关系中的失衡。

不是所有东西都适合被解决。

有些需要调和,有些需要转化,有些甚至需要被尊重。

衰老不只是故障。

情绪不只是噪音。

低效不只是浪费。

人的不可预测,也不只是系统缺陷。

如果 AI 把一切都看成待优化对象,它当然会越来越强。

但我们也要问:它优化的方向是谁定义的?

它所谓的“更好”,是让人更自由,还是让人更可控?

是帮助我们成为更完整的人,还是让我们越来越像一个高效、稳定、可预测的系统部件?

这才是我读《至高无上》最深的不安。

奥尔特曼最值得警惕的,不是没有善意,而是善意太抽象。

他看见了人类,却未必看见具体的人。

而 AI 最大的危险,也不是它不够聪明。

是它太聪明之后,我们开始拿它的标准来嫌弃自己。

嫌弃自己慢。

嫌弃自己乱。

嫌弃自己情绪化。

嫌弃自己不够完整、不够正确、不够像答案。

但人不该被训练成答案。

人要保留提问的能力。

所以现在,我更愿意把 AI 当成一种觉察工具,而不是一个替我活着的执行者。

更深的洞察,更好的提问,真正的判断,更多的创造仍然要交还给自己。

我也越来越相信,人需要保持练习。

保持写作的手感,保持表达的笨拙,保持审美的敏感,保持自己慢慢想明白一件事的能力。

因为一旦你完全放弃这些,你失去的可能不是某项技能。

而是你对自己作为一个人的信任。

真正好的技术,不应该让我们更讨厌自己的不完美。

它应该帮助我们更清楚地看见:

什么该解决。

什么该调和。

什么应该被尊重。

以及,什么东西绝不能被优化掉。