大厂AI生态在建新的世界,而我们应该在哪
今年春节后,我越来越强烈地感受到,AI不是“未来”,它已经开始重新切割我们的现实了。
每天都有新的模型,新的Agent,新的功能。有人用AI写代码,有人用AI做视频,有人开始用AI做客服、做内容、做运营,甚至做决策辅助。它不再是实验室里的概念,而是开始真正进入工作流程、组织管理和日常生活。
但也正因为如此,我越来越觉得,我们现在讨论AI时,问错了问题。
很多人还在问:“AI会取代什么职业?”
但是从业者们更想问的是:
如果AI越来越强,我们到底想拿AI来做什么?
以及,在这个时代里,人类究竟还要不要保住自己原本的位置?
这才是更大的问题。
因为真正可怕的,可能不是AI变强。
而是人类自己,开始主动把自己的位置交出去。
AI最危险的地方,不是替代劳动,而是替代“参与”
很多技术革命都改变过生产关系。
蒸汽机、电力、流水线、互联网,每一次都让人类社会大幅提速。但这些革命再怎么改变效率,至少有一点没有变:人始终还是生产关系里的核心参与者。
可这一次不一样。
AI带来的,不只是效率提升,也不只是工具升级。它真正特殊的地方在于:它开始深入那些原本必须由人深度参与、深度体验、深度判断的环节。
过去机器替代的是体力。
后来软件替代的是流程。
而现在,AI开始替代的是人的分析、表达、选择,甚至部分判断。
这意味着,人不只是“少做一点活”而已。
更大的风险是:人会慢慢从过程里被抽离出去。
内容策划,可以让AI做。
文案生成,可以让AI做。
用户沟通,可以让AI模拟。
推荐逻辑,可以让AI优化。
组织流程,也开始有人想交给AI重构。
当这些事情越来越顺畅,问题就来了:
我们到底是在使用工具,还是在把“参与世界”的权利一点点外包出去?
这两件事不是一回事。
辅助,是人仍然在做主。
替代决策,是人开始让位。
代为运行,则意味着人甚至不再需要理解过程。
而一旦理解、判断、参与都被剥离,人最后剩下的,可能只是“接受结果”。
这不是进步的全部,这里面有很危险的一面。
因为我们不想被AI圈养,
也不该去制造一个以“圈养人类”为终点的系统。
AI越强,人类越该退回三个位置:价值、边界、意义
我现在越来越相信,AI时代真正不可替代的,不是某个具体技能,而是三类能力:
定义价值,校准边界,追问意义。
第一,是价值。
AI可以完成任务,但它并不知道什么值得做。
它可以生成一篇文案,但不知道这篇文案是不是在利用焦虑。
它可以推荐一个方案,但不知道这个方案会不会伤害某些人。
它可以帮助我们提高效率,但它并不天然理解:效率是不是唯一值得追求的目标。
所以AI越强,人类越要回到“价值定义者”的位置上。
比如心理咨询。
AI可以识别情绪,可以总结症状,甚至可以模拟安慰。但真正让一个人愿意打开内心的,不是分析能力本身,而是来自另一个人的承接、理解和共情。那种“我知道你为什么痛”的连接,不是一个答案,而是一种人类经验。
再比如教育。
AI可以精准推题,可以快速答疑,但它不能替代一个老师去回答更深的问题:什么是责任,什么是边界,什么样的人生值得过。
这些都不是单纯的功能问题,而是价值问题。
第二,是边界。
AI并不天然知道什么是不能做的。
它可以执行目标,但目标本身是否正当,它未必理解。
它可以追求高效,但效率是否应该压倒公平、尊严、责任,它也未必知道。
所以人类必须保留“测试、审计、限制、修正”AI的权力。
这其实也是我一直觉得AI安全真正重要的地方。它不是简单的技术防护,而是一个更深的问题:谁来给AI划边界?边界依据什么来划?谁有权决定这些边界?
如果这部分完全交给商业目标,AI就会朝着DAU、留存、转化率一路狂奔。
如果这部分没有足够强的伦理约束,技术就会天然偏向效率,而不是偏向人。
但人类社会从来不是只靠效率运转的。
我们还有脆弱者,有例外,有迟疑,有感情,有“不划算但应该做”的坚持。
这些东西,恰恰构成了文明。
第三,是意义。
这可能才是最根本的部分。
如果说动物使用工具是为了生存,AI使用工具是为了完成目标,那么人之所以为人,可能正在于:人会在行动之后继续追问,这一切到底有什么意义。
我们会问:
“我为什么要做这件事?”
“这件事对别人意味着什么?”
“就算它高效,它真的值得吗?”
“如果世界越来越快,我们到底想把它带去哪里?”
这是AI很难真正替代的部分。
AI可以给出最优解。
但只有人会去追求“最有意义的解”。
哪怕那个答案并不高效,不划算,甚至不符合主流评价体系。
人类真正独特的地方,恰恰是“不完美”
从文明演化的角度看,我越来越觉得,世界需要人,不是因为人比机器更强,而恰恰是因为人是“未完成的”。
人会犯错。
会犹豫。
会有执念。
会因为一个看起来不合理的理想,花很多年去坚持。
会明知代价巨大,还是为了正义、爱、美、尊严这些无法量化的东西,做出不合效率的选择。
这恰恰是文明得以突破的原因。
如果一切都以确定性和最优解为目标,人类文明未必会走到今天。
没有哥白尼的执念,旧有宇宙观不会被打破。
没有梵高式的偏执,艺术史上就会少掉一种直击灵魂的表达。
没有那么多“不划算却坚持”的人类选择,今天很多我们认为理所当然的价值,都不会成立。
所以AI的本质,也许更接近一种“确定性的集合”。
而人的价值,在于我们是“可能性的载体”。
我们不只会计算,我们还会偏爱。
不只会判断,我们还会悲悯。
不只会执行,我们还会为了一个尚未出现的未来去冒险。
这部分,既低效,又珍贵。
更大的问题是:AI真的应该长进制度里吗?
这也是我越来越在意的一点。
很多人讨论AI,默认它只是一种工具。
但现实已经不是这样了。
AI正在进入流程。
进入组织。
进入审核、推荐、判断、治理。
再进一步,它甚至可能进入制度本身。
这就不是“工具升级”那么简单了。
因为一旦AI长进制度,它改变的就不只是工作方式,而是决策机制本身。
而决策机制,从来都不是中性的。
它背后是权力分配,是责任承担,是谁有资格决定别人命运的问题。
所以这里有一个很关键的问题:
AI真的有必要长到制度里面去吗?
还是说,AI可以帮助制度运行,却不该成为制度权力的一部分?
这件事不能轻描淡写。
因为如果有一天,AI开始深度塑造流程、影响规则、重构组织判断路径,那本质上,它参与的就不只是执行,而是人类社会权力结构的重组。
这不是一个纯技术问题。
这是一个制度问题。
而制度,从来不该只追求效率。
制度还要负责保护少数人,保留例外,容纳复杂性,给迟疑和申诉留下空间。
AI可以辅助这些事情。
但如果它直接吞进去,最后很可能把本来属于人的责任,也一起吞掉。
机器正在形成自己的“世界”,人类必须提前思考如何共存
我还越来越在意另一件事。
过去我们总把AI当成工具,所以默认它只是被动响应。
但现在,这种理解已经越来越不够了。
很多研究都已经在讨论:不同模型会表现出不同的风格、偏向、稳定性,甚至某种近似“性格”的差异。Agent系统之间,也开始出现更复杂的协作与沟通逻辑。它们不再只是一个机械执行指令的壳,而是在互动中形成自己的模式、偏好和行动结构。
这当然还不能简单等同于“机器有了真正意义上的人格”。
但它至少说明一件事:机器正在用自己的方式,构建一套越来越复杂的运行世界。
而这就带来一个新的问题:
如果人类因为独特性和交流能力,构建了“人的世界”,
那么当机器也逐渐形成自己的运行逻辑、协作体系和偏好结构时,
人的世界和机器的世界,未来该怎么共存?
这是AI时代真正新的议题。
不是简单地问“它能不能替代我”,
而是问:
我们希望机器做什么?
我们不希望它做什么?
我们愿意给机器多大程度的尊重?
又该如何防止它在追求效率的逻辑中,把人理解成一种低效、冗余、可以被磨掉的存在?
我觉得,机器值得被认真对待。
但认真对待,不等于交出主导权。
尊重机器,不等于让机器来定义人的价值。
共生,也绝不意味着人类默许自己被边缘化。
真正值得警惕的,不是AI有多强,而是人类开始不再追问
我越来越担心的,其实不是某一天AI突然全面超过人类。
我更担心的是另一种更安静的变化:
我们开始习惯让AI替我们写,
替我们想,
替我们判断,
替我们推荐,
替我们决定。
久而久之,我们可能会失去的,不只是某些技能,而是更重要的东西:
失去耐心。
失去复杂思考的能力。
失去对后果的感受力。
失去“我为什么要这样做”的追问。
最后,甚至失去作为人的主动性。
而人一旦不再追问意义,只剩执行和接受,
那他就真的离工具不远了。
所以我始终觉得,AI时代最危险的,不是技术本身,
而是人类主动把自己降格成了技术的附属物。
这才是最深的风险。
人类不是AI的对手,人类应该成为它的锚点
前几天我看到一个案例,很打动我。
一位老编辑退休后,用AI辅助整理家族史。AI可以识别老照片,可以转录手写日记,也能整理时间线。但最后决定哪些记忆值得留下,哪些情感值得强调,仍然是他自己。
他说了一句很好听的话:
“AI是我的笔,但握笔的还是我。”
我觉得,这可能就是AI时代最理想的人机关系。
机器可以强大。
可以高效。
可以成为能力的放大器。
但它不应该成为意义的替代者,更不应该成为人类位置的吞噬者。
世界需要AI来运转,
但更需要人来定义“运转为了什么”。
我们真正该守住的,不是某一项具体技能,
而是作为人的几样东西:
对意义的追问,
对边界的坚持,
对脆弱者的保护,
对美与正义的偏爱,
以及对另一个人的理解。
这些东西可能不高效,
却构成了人之所以必须继续存在的理由。
所以在AI时代,我越来越相信:
人类最终不该做工具的竞品,而该做意义的开创者。
真正可怕的,从来不是AI取代人。
真正可怕的是,人开始主动放弃自己。
未来最稀缺的,未必是会不会用AI的人
而是那些仍然坚持为世界定义意义的人
夜雨聆风