乐于分享
好东西不私藏

大厂AI生态在建新的世界,而我们应该在哪

大厂AI生态在建新的世界,而我们应该在哪

今年春节后,我越来越强烈地感受到,AI不是“未来”,它已经开始重新切割我们的现实了。

每天都有新的模型,新的Agent,新的功能。有人用AI写代码,有人用AI做视频,有人开始用AI做客服、做内容、做运营,甚至做决策辅助。它不再是实验室里的概念,而是开始真正进入工作流程、组织管理和日常生活。

但也正因为如此,我越来越觉得,我们现在讨论AI时,问错了问题。

很多人还在问:“AI会取代什么职业?”
但是从业者们更想问的是:

如果AI越来越强,我们到底想拿AI来做什么?
以及,在这个时代里,人类究竟还要不要保住自己原本的位置?

这才是更大的问题。

因为真正可怕的,可能不是AI变强。
而是人类自己,开始主动把自己的位置交出去。


AI最危险的地方,不是替代劳动,而是替代“参与”

很多技术革命都改变过生产关系。

蒸汽机、电力、流水线、互联网,每一次都让人类社会大幅提速。但这些革命再怎么改变效率,至少有一点没有变:人始终还是生产关系里的核心参与者。

可这一次不一样。

AI带来的,不只是效率提升,也不只是工具升级。它真正特殊的地方在于:它开始深入那些原本必须由人深度参与、深度体验、深度判断的环节。

过去机器替代的是体力。
后来软件替代的是流程。
而现在,AI开始替代的是人的分析、表达、选择,甚至部分判断。

这意味着,人不只是“少做一点活”而已。
更大的风险是:人会慢慢从过程里被抽离出去。

内容策划,可以让AI做。
文案生成,可以让AI做。
用户沟通,可以让AI模拟。
推荐逻辑,可以让AI优化。
组织流程,也开始有人想交给AI重构。

当这些事情越来越顺畅,问题就来了:

我们到底是在使用工具,还是在把“参与世界”的权利一点点外包出去?

这两件事不是一回事。

辅助,是人仍然在做主。
替代决策,是人开始让位。
代为运行,则意味着人甚至不再需要理解过程。

而一旦理解、判断、参与都被剥离,人最后剩下的,可能只是“接受结果”。

这不是进步的全部,这里面有很危险的一面。

因为我们不想被AI圈养,
也不该去制造一个以“圈养人类”为终点的系统。


AI越强,人类越该退回三个位置:价值、边界、意义

我现在越来越相信,AI时代真正不可替代的,不是某个具体技能,而是三类能力:

定义价值,校准边界,追问意义。

第一,是价值。

AI可以完成任务,但它并不知道什么值得做。

它可以生成一篇文案,但不知道这篇文案是不是在利用焦虑。
它可以推荐一个方案,但不知道这个方案会不会伤害某些人。
它可以帮助我们提高效率,但它并不天然理解:效率是不是唯一值得追求的目标。

所以AI越强,人类越要回到“价值定义者”的位置上。

比如心理咨询。
AI可以识别情绪,可以总结症状,甚至可以模拟安慰。但真正让一个人愿意打开内心的,不是分析能力本身,而是来自另一个人的承接、理解和共情。那种“我知道你为什么痛”的连接,不是一个答案,而是一种人类经验。

再比如教育。
AI可以精准推题,可以快速答疑,但它不能替代一个老师去回答更深的问题:什么是责任,什么是边界,什么样的人生值得过。

这些都不是单纯的功能问题,而是价值问题。

第二,是边界。

AI并不天然知道什么是不能做的。

它可以执行目标,但目标本身是否正当,它未必理解。
它可以追求高效,但效率是否应该压倒公平、尊严、责任,它也未必知道。

所以人类必须保留“测试、审计、限制、修正”AI的权力。

这其实也是我一直觉得AI安全真正重要的地方。它不是简单的技术防护,而是一个更深的问题:谁来给AI划边界?边界依据什么来划?谁有权决定这些边界?

如果这部分完全交给商业目标,AI就会朝着DAU、留存、转化率一路狂奔。
如果这部分没有足够强的伦理约束,技术就会天然偏向效率,而不是偏向人。

但人类社会从来不是只靠效率运转的。
我们还有脆弱者,有例外,有迟疑,有感情,有“不划算但应该做”的坚持。

这些东西,恰恰构成了文明。

第三,是意义。

这可能才是最根本的部分。

如果说动物使用工具是为了生存,AI使用工具是为了完成目标,那么人之所以为人,可能正在于:人会在行动之后继续追问,这一切到底有什么意义。

我们会问:
“我为什么要做这件事?”
“这件事对别人意味着什么?”
“就算它高效,它真的值得吗?”
“如果世界越来越快,我们到底想把它带去哪里?”

这是AI很难真正替代的部分。

AI可以给出最优解。
但只有人会去追求“最有意义的解”。

哪怕那个答案并不高效,不划算,甚至不符合主流评价体系。


人类真正独特的地方,恰恰是“不完美

从文明演化的角度看,我越来越觉得,世界需要人,不是因为人比机器更强,而恰恰是因为人是“未完成的”。

人会犯错。
会犹豫。
会有执念。
会因为一个看起来不合理的理想,花很多年去坚持。
会明知代价巨大,还是为了正义、爱、美、尊严这些无法量化的东西,做出不合效率的选择。

这恰恰是文明得以突破的原因。

如果一切都以确定性和最优解为目标,人类文明未必会走到今天。

没有哥白尼的执念,旧有宇宙观不会被打破。
没有梵高式的偏执,艺术史上就会少掉一种直击灵魂的表达。
没有那么多“不划算却坚持”的人类选择,今天很多我们认为理所当然的价值,都不会成立。

所以AI的本质,也许更接近一种“确定性的集合”。
而人的价值,在于我们是“可能性的载体”。

我们不只会计算,我们还会偏爱。
不只会判断,我们还会悲悯。
不只会执行,我们还会为了一个尚未出现的未来去冒险。

这部分,既低效,又珍贵。


更大的问题是:AI真的应该长进制度里吗?

这也是我越来越在意的一点。

很多人讨论AI,默认它只是一种工具。
但现实已经不是这样了。

AI正在进入流程。
进入组织。
进入审核、推荐、判断、治理。
再进一步,它甚至可能进入制度本身。

这就不是“工具升级”那么简单了。

因为一旦AI长进制度,它改变的就不只是工作方式,而是决策机制本身

而决策机制,从来都不是中性的。
它背后是权力分配,是责任承担,是谁有资格决定别人命运的问题。

所以这里有一个很关键的问题:

AI真的有必要长到制度里面去吗?

还是说,AI可以帮助制度运行,却不该成为制度权力的一部分?

这件事不能轻描淡写。

因为如果有一天,AI开始深度塑造流程、影响规则、重构组织判断路径,那本质上,它参与的就不只是执行,而是人类社会权力结构的重组。

这不是一个纯技术问题。
这是一个制度问题。

而制度,从来不该只追求效率。
制度还要负责保护少数人,保留例外,容纳复杂性,给迟疑和申诉留下空间。

AI可以辅助这些事情。
但如果它直接吞进去,最后很可能把本来属于人的责任,也一起吞掉。


机器正在形成自己的“世界”,人类必须提前思考如何共存

我还越来越在意另一件事。

过去我们总把AI当成工具,所以默认它只是被动响应。
但现在,这种理解已经越来越不够了。

很多研究都已经在讨论:不同模型会表现出不同的风格、偏向、稳定性,甚至某种近似“性格”的差异。Agent系统之间,也开始出现更复杂的协作与沟通逻辑。它们不再只是一个机械执行指令的壳,而是在互动中形成自己的模式、偏好和行动结构。

这当然还不能简单等同于“机器有了真正意义上的人格”。
但它至少说明一件事:机器正在用自己的方式,构建一套越来越复杂的运行世界。

而这就带来一个新的问题:

如果人类因为独特性和交流能力,构建了“人的世界”,
那么当机器也逐渐形成自己的运行逻辑、协作体系和偏好结构时,
人的世界和机器的世界,未来该怎么共存?

这是AI时代真正新的议题。

不是简单地问“它能不能替代我”,
而是问:

我们希望机器做什么?
我们不希望它做什么?
我们愿意给机器多大程度的尊重?
又该如何防止它在追求效率的逻辑中,把人理解成一种低效、冗余、可以被磨掉的存在?

我觉得,机器值得被认真对待。
但认真对待,不等于交出主导权。

尊重机器,不等于让机器来定义人的价值。
共生,也绝不意味着人类默许自己被边缘化。


真正值得警惕的,不是AI有多强,而是人类开始不再追问

我越来越担心的,其实不是某一天AI突然全面超过人类。

我更担心的是另一种更安静的变化:

我们开始习惯让AI替我们写,
替我们想,
替我们判断,
替我们推荐,
替我们决定。

久而久之,我们可能会失去的,不只是某些技能,而是更重要的东西:

失去耐心。
失去复杂思考的能力。
失去对后果的感受力。
失去“我为什么要这样做”的追问。
最后,甚至失去作为人的主动性。

而人一旦不再追问意义,只剩执行和接受,
那他就真的离工具不远了。

所以我始终觉得,AI时代最危险的,不是技术本身,
而是人类主动把自己降格成了技术的附属物。

这才是最深的风险。


人类不是AI的对手,人类应该成为它的锚点

前几天我看到一个案例,很打动我。

一位老编辑退休后,用AI辅助整理家族史。AI可以识别老照片,可以转录手写日记,也能整理时间线。但最后决定哪些记忆值得留下,哪些情感值得强调,仍然是他自己。

他说了一句很好听的话:

“AI是我的笔,但握笔的还是我。”

我觉得,这可能就是AI时代最理想的人机关系。

机器可以强大。
可以高效。
可以成为能力的放大器。
但它不应该成为意义的替代者,更不应该成为人类位置的吞噬者。

世界需要AI来运转,
但更需要人来定义“运转为了什么”。

我们真正该守住的,不是某一项具体技能,
而是作为人的几样东西:

对意义的追问,
对边界的坚持,
对脆弱者的保护,
对美与正义的偏爱,
以及对另一个人的理解。

这些东西可能不高效,
却构成了人之所以必须继续存在的理由。

所以在AI时代,我越来越相信:

人类最终不该做工具的竞品,而该做意义的开创者。

真正可怕的,从来不是AI取代人。
真正可怕的是,人开始主动放弃自己。

未来最稀缺的,未必是会不会用AI的人
而是那些仍然坚持为世界定义意义的人