AI时代,人类最需要培养的三大能力
II 点关注 不迷路
早上 9 点的写字楼格子间里,几乎每台亮着的电脑屏幕上,都开着一个 AI 对话窗口。
写周报,先让 AI 整理本周的工作数据;做方案,先让 AI 出 3 套框架;想不出文案,让 AI 生成 10 个标题;甚至连给客户的回复、给家人的生日祝福,都要先问一句 AI “怎么说更合适”。
我们正在经历一场前所未有的效率革命。AI 能在几秒钟里读完我们要花一周才能啃完的资料,能写出比大多数人更通顺的文案,能考过律师资格证、能写代码、能做数据分析,甚至能画出惊艳的画作、写出动人的旋律。
但越来越多人的心里,都藏着一个挥之不去的疑问:当 AI 能替我们做几乎所有事,我们的不可替代性,到底在哪里?我们到底要培养什么能力,才不会在这场浪潮里,被工具甩在身后?
要回答这个问题,我们不能听蹭热点博主喊口号,也不能看科技公司的营销通稿,我们要找一个真正懂 “人类智能”,也真正懂 “AI 本质” 的人。
这个人,就是加里・马库斯。
他不是半路出家的 AI 网红,而是深耕认知神经科学与人工智能交叉领域数十年的顶尖学者:纽约大学心理学与神经科学名誉教授。
早年专注婴儿认知发展研究,摸清了人类智能从 0 到 1 的生长逻辑;后来又深度参与 AI 行业,是少有的既能吃透深度学习底层架构,又能跳出技术狂热,看清 AI 本质局限的专家。
早在 2018 年,他就精准预言了今天大模型的核心缺陷,他的观点,连 OpenAI 的核心团队都不得不正视。
在马库斯数十年的研究里,他始终在回答一个核心问题:人类智能,到底有什么是 AI 永远无法复刻的?
答案正是 AI 时代,人类最需要守住、也最需要培养的三大能力。它们不是和 AI 比拼算力的 “内卷技能”,而是刻在人类基因里、AI 底层架构永远无法实现的、真正的不可替代性。
01
看透本质的因果推理能力:
从 “找关联” 到 “懂为什么”
先看马库斯在《重启 AI》里提到的两个事实:
现在最先进的大模型,能以高分通过美国的律师资格考试,能写出能正常运行的复杂代码,却会在一个小学生都能答对的问题上频频翻车 ——“大象能不能塞进普通家用冰箱里?”
AI 会一本正经地给你计算成年大象的平均体积,再对比家用冰箱的容积,告诉你 “无法容纳”。
但它永远不会想到,这个问题的核心从来不是数学计算:正常人家的冰箱是用来存放食物的,没有人会把大象往冰箱里塞;
这甚至是个经典的脑筋急转弯,答案可以是只需要打开冰箱门,把大象放进去就行。
另一个例子:AI 能给你找出上万条数据,告诉你 “每天喝 3 杯咖啡的人,平均寿命更长”,
但它永远分不清,这到底是 “喝咖啡让人长寿”,还是 “能每天规律喝咖啡的人,往往收入更高、更注重健康、作息更稳定,所以才更长寿”。
这就是 AI 最核心的天花板:它永远只能找到 “相关性”,却无法理解 “因果性”。
在《代数大脑:揭秘智能背后的逻辑》里,马库斯用一整本书讲清了人类智能和 AI 的本质区别:当前所有主流 AI,本质上都是一台 “统计拟合机器”。
它的所有能力,都来自对海量训练数据的概率匹配 —— 它知道 “这些词语放在一起,在语法上是通顺的”,“这些数据同时出现,有很高的关联度”,但它永远不懂,这些词语、这些数据背后,到底是什么逻辑。
而人类的大脑,天生就是一台 “因果推理机器”。我们能从极少量的案例里,提炼出普适的底层规则,能清晰地知道 “A 导致了 B”,而不只是 “A 和 B 一起出现”;
更能完成 AI 永远做不到的 “反事实推理”——“如果 A 没有发生,B 会怎么样?”
一个刚学会说话的孩子,只见过邻居家的一次金毛,下次在街上看到一只吉娃娃、一只哈士奇,甚至是一只卡通画里的狗,都能立刻认出 “这是狗”。
但大模型要看过几十万张标注过的狗的照片,还是会把长着白毛的猫、印着狗图案的 T 恤,认成狗。
这就是马库斯说的 “系统性泛化能力”:人类能从具象的事物里,抽象出底层的规则,再把这个规则,跨场景用到所有相关的地方。
牛顿从苹果落地,提炼出万有引力定律,还能把它用到行星运动的计算里;
黄峥从 “消费升级的本质,是普通人也能买到性价比更高的好东西” 这个底层逻辑,做出了拼多多,而当时所有的电商数据,都只在告诉 AI “淘宝京东在一二线城市卖得更好”。
AI 能复刻所有已经出现的案例,却永远无法完成从 0 到 1 的规则提炼,永远无法在从未见过的场景里,做出可靠的逻辑推演。
而这,正是所有科学创新、商业战略、复杂问题解决的核心。
很多人以为,培养这个能力,就是要学更多的知识、背更多的模型。
但马库斯的研究告诉我们,恰恰相反,这个能力的培养,核心是戒掉对 AI 的 “逻辑依赖”。
你不用去啃晦涩的统计学教材,只需要在日常里,养成一个简单的习惯:每次看到一个结论、一个热点、一组数据,先停下来,问自己三个问题:
第一,这只是相关性,还是真的有因果关系?
第二,如果没有这个因素,这个结果还会成立吗?
第三,这个结论背后的底层规则,还能用到什么完全不相关的地方?
比如你看到一个爆款文案,不要让 AI 给你拆解模板、仿写句子,而是自己去想:这个文案能打动人,底层的用户心理到底是什么?这个心理,还能用到我的产品、我的工作里吗?
比如你看到一个商业案例,不要让 AI 给你总结成功经验,而是自己去推演:如果当时它没有做这个动作,还会成功吗?真正让它成的,到底是哪个核心变量?
这个过程,可能比让 AI 直接给你答案要慢,但正是这个慢下来的思考,正在强化你 AI 永远学不会的因果推理能力。
你要记住:AI 可以帮你核对数据、补充细节,但核心的逻辑推演,必须由你自己完成。
一旦你让 AI 替你思考,你就会慢慢失去看透本质的能力。
02
扎根现实的常识判断能力:
从 “看数据” 到 “懂世界”
你有没有见过这样的场景:
一个受过高等教育、能熟练用 AI 做各种复杂分析的人,会在网上相信 “喝小苏打能抗癌” 的谣言;一个能让 AI 写出完美商业计划书的创业者,会在现实里踩中最基础的商业骗局;
这就是马库斯反复强调的,AI 的第二个致命缺陷:它没有真正的 “常识”,也没有对真实世界的底层理解。
什么是常识?不是你在网上能搜到的 “生活小窍门”,也不是书本里的知识点,而是我们活在这个世界上,通过身体的感知、真实的互动、一次次的试错,慢慢搭建起来的 “内置世界模型”。
我们小时候摔过跤,就知道 “踩在滑的地面上会摔倒”;我们煮过饭,就知道 “水放多了会煮成粥,水放少了会煮糊”;我们开过车,就知道 “路上的异物,不管看起来是什么,都要先避开,因为你不知道里面藏着什么”。
这些东西,我们不用特意去学,就天然懂。我们能在信息不完整、场景模糊、充满不确定性的开放世界里,快速做出可靠的判断,处理无限多的 “意外情况”。
但 AI 做不到。马库斯在研究里反复提到,哪怕是最先进的大模型,也会在最基础的常识问题上翻车:
它会告诉你 “把鸡蛋放在水里煮一个小时,口感会更好”,会给你编出根本不存在的学术论文、根本没有颁布过的法律条文,会一本正经地胡说八道。
因为 AI 没有身体,没有真实的生活,没有和这个世界真实互动过。它所有的 “知识”,都来自网上的文本数据,
它知道 “鸡蛋煮熟了才能吃”,但它不知道 “煮一个小时的鸡蛋会口感不好”;
它知道 “法律条文有固定的格式”,但它不知道 “不存在的法条,是没有任何法律效力的”。它只是在拼接词语,却不懂这些词语背后,真实世界的运行规则。
AI 只能在封闭的、固定规则的、数据覆盖充分的场景里稳定运行,但我们的真实生活,从来都是开放的、模糊的、充满意外的。
而能让你在这些意外里稳住阵脚的,从来不是 AI 给你的标准答案,而是你对这个世界的常识理解。
马库斯说,人类的常识,是活出来的,不是背出来的。所以这个能力的培养,核心就是跳出屏幕,回到真实的世界里,去和这个世界真实互动。
03
守住本心的价值选择能力:
从 “做什么/不做什么” 到 “为什么做”
去年有两个新闻,让很多人印象深刻:
一个是某自媒体博主,用 AI 批量生成了几十篇造谣明星的文章,靠博眼球赚了几十万的流量和广告费,最后被封号、起诉;
另一个是某公司的程序员,用 AI 写了一段代码,直接上线用在了企业生产环节,结果代码出了严重的 bug,造成了巨大的损失,他第一反应不是复盘自己的问题,而是甩锅 “AI 给的代码有问题”。
这两个故事里,藏着 AI 时代最危险的陷阱:我们正在慢慢把自己的价值判断、伦理底线,甚至是责任承担,都让渡给了 AI。
而这,正是马库斯在所有学术研究、公开演讲里,反复警示的核心:AI 没有主体性,没有自我意识,它永远不会问 “这件事值不值得做”,只会问 “这件事怎么做得更快、更好”。
它能优化人类给定的目标函数,却永远无法自主定义目标,无法理解行为的意义,更无法为自己的输出,承担任何道德、法律、社会责任。
你给 AI 下达指令 “我要涨粉 10 万”,它会给你想出无数博眼球的办法,哪怕是造谣、擦边、煽动情绪,它不会管这件事对不对,会不会伤害到别人;
你给 AI 说 “我要把业绩翻一倍”,它会给你做出极致压缩成本的方案,哪怕是克扣员工工资、牺牲产品质量,它不会管这件事合不合规,有没有良心。
AI 是一把没有善恶的刀,它能切菜,也能伤人,而决定用它来做什么的,永远是握刀的人。
马库斯说,AI 时代,人类最核心的不可替代性,就是我们能定义 “什么值得做”,能为技术锚定伦理底线,能为自己的决策,承担终极责任。
有一位三甲医院的放射科医生,曾经分享过自己的经历:现在的 AI 看片系统,能比医生更快地找到片子里的结节,准确率也很高。
但有一次,AI 给一位患者的片子打了 “未见异常” 的标签,他还是凭着自己的经验,反复看了几遍,在一个非常隐蔽的角落,发现了一个早期的微小肿瘤,帮患者抢回了最佳的治疗时间。
有人问他,AI 都已经说没问题了,你为什么还要反复看?他说:“AI 看的是片子,我看的是人。AI 不用为这个患者的生命负责,但我要。”
这就是人类的主体性:我们知道自己做这件事,到底是为了什么;我们有自己不可动摇的底线;我们愿意为自己的每一个决策,承担责任。
AI 能替你写完美的方案,但它不能替你判断,这个方案会不会伤害到别人;
AI 能替你找无数条赚钱的路子,但它不能替你决定,哪些钱能赚,哪些钱绝对不能碰;
AI 能给你列出无数条人生的选项,但它不能替你决定,哪条路,是你真正想走的。
很多人以为,培养这个能力,就是要学更多的伦理知识、懂更多的法律法规。
但马库斯告诉我们,这个能力的核心,是守住你的认知主体性,永远不要把决策权,让渡给 AI。
你不用去啃厚厚的伦理学著作,只需要在做每一个决策、用 AI 做每一件事之前,停下来,问自己三个问题:
第一,我做这件事的终极目标是什么?它真的是我想要的吗?
第二,这件事的底线在哪里?有什么东西,是我绝对不能做的?
第三,如果这件事出了问题,我愿意承担所有的后果吗?
比如你用 AI 写方案,不要直接抄过来就交,你要自己从头到尾看一遍,这个方案是不是符合你的价值观,会不会有风险,因为最终为这个方案负责的,是你,不是 AI;
比如你做自媒体,AI 给你写了一个能爆火的标题,但它是标题党,是造谣,你要知道,这件事绝对不能做,因为你要为自己说的每一句话负责。
这个过程,可能会让你放弃很多短期的红利,但它会帮你守住作为人的主体性。
你要记住:你是 AI 的使用者,是目标的定义者,是责任的承担者,永远不要把自己活成 AI 输出的 “传声筒”。
最后:
写到这里,你可能已经明白:AI 时代,我们真正的敌人,从来不是越来越强大的 AI,而是我们自己的懒惰 —— 懒得思考,懒得体验,懒得选择,慢慢把所有事都交给 AI,最终失去了作为人的核心能力。
马库斯从来不是一个 “AI 悲观主义者”,相反,他始终认为,AI 是人类有史以来最强大的工具之一。
AI 能替我们做所有重复的、繁琐的、消耗精力的事,让我们有更多的时间,去做只有人类能做的事。
它替不了你看透事物本质的因果推理;它给不了你扎根真实世界的常识判断;它也替不了你守住本心的价值选择。
这三大能力,不是什么高深的技能,而是刻在我们基因里的、属于人的禀赋。
AI 时代,最珍贵的,从来不是“和AI一样聪明”,而是 “永远像人一样活着”。
这,就是我们在这场浪潮里,永远不会被替代的底气。
E
N
D
夜雨聆风