写在前面
硅谷最近有一篇文章在广泛流传,标题叫《The Next Biggest Moat in AI》,核心论点是:AI时代,组织形态将取代技术和产品,成为企业最重要的护城河。
文章阅读量达到数百万,在创业者和投资人圈子里引发了大量讨论。
我读完之后,同意它的问题,但不同意它的答案。
它问的问题是对的:当AI让技术差距快速收窄、让叙事能力人人可得,企业的持久优势到底来自哪里?
但它给出的答案——"吸引人才、发展人才、让人才形成判断力复利"——有一个没被追问的前提漏洞:
人才是流动的。
你今天吸引到的人,明天可以离开。如果护城河的定义是"竞争对手难以复制的持久优势",那人才本身不满足这个定义——除非人才在组织里沉淀了某种离开后带不走的东西。
所以那篇文章真正应该回答的问题,不是"如何吸引人才",而是:人才在组织里会沉淀下什么?这个东西为什么带不走?它如何成为护城河?
这篇文章试图回答这三个问题。
一、先拆掉一个流行的幻觉
在进入正题之前,需要先把一个在管理学界流行了很久的说法拆掉:文化是护城河。
你会听到有人说,亚马逊的"Day 1文化"是它的护城河,Anthropic的"安全优先文化"是它的护城河,字节跳动的"坦诚直接文化"是它的护城河。
这个说法在某种意义上是对的,但在另一种意义上是完全没用的——因为它不可操作。
你没有办法去"建设一个文化",就像你没有办法去"建设一个声誉"一样。文化不是可以被设计和安装的模块,它是无数个具体决策和行为积累之后,在外部观察者眼里呈现出来的模式。
更危险的是,当"文化"成为管理者的核心工具,他们会开始做两件错误的事:
第一,用价值观词汇来做人才筛选,而不是用真实能力和判断力;第二,把"文化氛围建设"当成护城河本身,而不是护城河的副产品。
结果是什么?大量"文化吻合"但没有真实判断力的人进入组织,组织的密度看起来很高,涌现效应却迟迟不出现。
所以我们需要一个更精确的概念。
文化不是护城河。文化是护城河形成过程中的副产品。真正的护城河,是那个在特定反馈循环里,被特定场景约束、被时间沉淀下来的不可迁移判断力。
二、什么是不可迁移判断力让我从一个具体的案例进入
2023年,DeepSeek横空出世,用远低于同行的训练成本训练出了可以和OpenAI正面竞争的模型。硅谷的第一反应是:这是一群天才。于是很多公司开始想,能不能把DeepSeek的工程师挖过来?
但挖过来又能怎样?
DeepSeek的核心优势不在于那几个工程师有多聪明,而在于他们在中国特定算力约束下,反复试错、反复优化、在资源极度稀缺的环境里形成的工程直觉。
这种直觉的形成,需要三个要素同时存在:场景约束(算力稀缺)× 高频反馈(快速实验迭代)× 时间积累(足够长的试错周期)。
把工程师挖走,你得到的是一个人,但你没有办法把这个人形成判断力所依赖的场景约束和反馈循环一起搬走。他到了一个算力充沛的硅谷公司,面对完全不同的约束条件,过去的判断力不一定能直接迁移,甚至可能失灵。
这就是不可迁移判断力的本质:它不存在于人的头脑里,它存在于人与特定场景的长期交互之中。
人离开场景,判断力就部分蒸发了
再举一个例子。美团的外卖调度算法团队,拥有全球最好的实时物流调度能力之一。这个能力的形成,是因为他们在中国几千个城市、几亿笔订单、各种极端天气和节假日峰值场景下,反复优化了多年。
你能挖走他们的工程师,但你挖不走那几千个城市的数据、挖不走十年积累的异常场景库、挖不走他们在真实骑手-商家-用户三角关系里形成的系统性直觉。
这个判断力的物理载体,就是护城河本身。
所以,我给护城河一个更精确的定义:
护城河 = 判断力 × 场景约束 × 时间,三者缺一不可,且必须以某种物理形式沉淀在组织里,而不只是存在于个人脑中。
三、AI改变了什么,没改变什么
在这个框架下,我们来重新审视一个问题:AI到底改变了哪些护城河,没有改变哪些?
AI正在摧毁的护城河:
第一,信息不对称护城河。过去,一个行业老手拥有护城河,很大程度上是因为他掌握了别人不容易获得的信息。AI让信息获取的成本趋近于零,这类护城河正在快速消失。
第二,执行效率护城河。过去,一个团队执行效率高,意味着它能比别人更快地完成标准化任务。AI让执行效率的提升不再是组织能力的核心体现,因为它可以被工具化。
第三,叙事和表达护城河。过去,能把复杂事情讲清楚是稀缺能力。现在,AI让表达能力的门槛大幅降低,叙事不再是护城河。
AI没有改变的护城河:
第一,场景数据的时间积累。真实世界的数据需要时间才能积累,这个物理约束AI改变不了。
第二,在极端约束下形成的系统性判断。上面说的DeepSeek案例,是这个类别的典型。
第三,由多个人的长期高频协作产生的组织级判断。这个后面单独讲。
AI创造的新护城河:
AI本身创造了一种新的护城河可能性——AI放大判断力的倍数,取决于判断力本身的质量。
清华杨斌教授提出了一个概念叫"AI次方效应":AI对个体能力的影响不是乘法,而是指数关系。如果你的判断力基准是1.1,AI可以把你放大到1.1的平方、立方;如果你的判断力基准是0.9,AI会加速你的出局,而不是帮助你。
这个逻辑对组织同样适用。一个拥有高质量不可迁移判断力的组织,在AI时代的优势会被指数级放大;一个靠信息不对称和执行效率建立优势的组织,在AI时代会被指数级削弱。
这就是AI时代组织建设最核心的命题:你要建设的,不是一个能高效执行任务的机器,而是一个能在特定场景下持续沉淀不可迁移判断力的系统。
四、组织密度为什么经常失灵
回到那篇热文的核心论点:高密度人才是护城河。
我同意高密度人才是护城河形成的必要条件,但不是充分条件。
高密度人才在什么情况下会失灵?
第一种失灵:协调成本超过协作收益。
把100个聪明人放在一个房间里,不会自动产生涌现效应,更可能产生的是会议地狱。
每个人都有强烈的自我判断,每个人都认为自己的方向是对的,每个人都在保护自己的思路不被否定。协调成本随人才密度的上升呈非线性增长,而协作收益的上升是线性的。当协调成本超过协作收益,组织就开始内耗。
这解释了一个常见的现象:很多公司在早期一二十人的时候效率最高,人才密度也高,随后越扩张反而越慢。不是因为人不够聪明,而是没有解决协调成本的问题。
第二种失灵:人才密度没有场景约束与之匹配。
高密度人才需要一个"足够难的真实问题"作为激活条件。
如果一个组织里聚集了很多优秀的人,但他们面对的问题太简单、反馈太慢、试错成本太高,判断力就没有形成的土壤。就像把一群顶级厨师关在一个没有食材的厨房里——不是厨师不行,是场景不对。
这是为什么很多大公司高薪挖来的明星员工,在新环境里表现平平。不是因为他们变笨了,而是他们脱离了当初形成判断力的场景约束。
第三种失灵:密度产生同质化,而非多样性涌现。
当一个组织高度强调"文化契合",最终会筛选出一批思维方式高度相似的人。高密度同质化人才,产生的不是涌现效应,而是群体极化——大家会互相强化彼此已有的判断,而不是碰撞出新的认知。
真正有涌现效应的人才密度,需要的是在核心价值观上对齐、在思维方式和知识结构上保持异质性的组合。
五、激活组织密度的真实条件
既然密度本身不够,那什么是激活密度效应的真实条件?
我认为是三个:高频真实反馈循环、足够难的真实问题、允许失败的试错文化。注意,这三个条件里没有"文化建设",没有"价值观培训",没有"人才发展计划"。
条件一:高频真实反馈循环。
判断力的形成,本质上是一个强化学习过程。你做出判断,环境给你反馈,你根据反馈修正判断,循环往复。
这个循环的频率决定了判断力形成的速度。反馈越快、越真实,判断力形成越快。
字节跳动早期最核心的组织优势,不是它的OKR系统,不是它的扁平文化,而是它的数据反馈速度。每一个产品决策,几乎可以在24小时内看到真实用户数据反馈。这个高频反馈循环,让字节的产品团队在极短时间内形成了比同行厚得多的判断力积累。
今日头条做出来,不是因为张一鸣比别的CEO聪明,而是因为他建立了一个让判断力能以最快速度沉淀的反馈系统。
条件二:足够难的真实问题。
Anthropic吸引到了多名硅谷创业公司CTO放弃高薪和决策权加入。原因不只是使命感,更核心的是:在Anthropic能做到外面做不到的实验。
训练前沿模型需要的算力规模、数据资源、安全研究基础设施,在Anthropic之外几乎无法复现。这个"足够难的真实问题",本身就是人才的吸引力来源——不是因为Anthropic的文化多好,而是因为它提供了一个能让顶尖人才在其中形成不可迁移判断力的场景。
对创业公司而言,这个逻辑非常实用:你想吸引什么层次的人才,就去建设一个该层次人才觉得"在这里能做到外面做不到的事"的环境。 这比任何薪酬激励和文化建设都有效。
条件三:允许失败的试错文化——但要区分两种失败。
"允许失败"这个说法被滥用了,以至于很多组织把它理解为"无论什么结果都没关系"。这是错误的。
允许失败,允许的是探索性失败,也就是在已知边界之外的真诚尝试所导致的失败;不允许的是执行性失败,也就是在已知正确方法上的粗心和懈怠。
区分这两种失败,是建设真正试错文化最核心的能力。一个分不清这两者的管理者,要么过度惩罚探索性失败、扼杀创新;要么对执行性失败过度宽容、纵容懈怠。
SpaceX允许火箭在测试中爆炸,因为那是探索性失败,每次爆炸都带来真实数据;但SpaceX对已知流程的执行失误,处理非常严格,因为那是执行性失败,没有认知增量。
这个区分,才是"试错文化"的真实内涵。
六、AI次方效应的暗面
前面说到杨斌教授的"AI次方效应":AI对个体能力的影响是指数关系,强者更强,弱者加速出局。
这个命题被广泛引用,但它有一个被忽视的暗面,对组织建设的影响同样深刻:
AI正在把"聪明"和"有判断力"之间的差距,扩大到前所未有的程度。
过去,一个聪明但缺乏深度判断力的人,可以通过勤奋和信息优势在组织里维持价值。他不需要有真正的洞见,他只需要比别人更快地处理信息、更勤奋地执行任务。
但AI摧毁了这个维持价值的路径。处理信息的速度,AI比任何人都快;执行标准化任务的效率,AI比任何人都高。聪明但缺乏真实判断力的人,在AI面前的竞争优势迅速归零。
对组织而言,这意味着选人标准需要发生根本性转变:从"这个人有多聪明、有多勤奋",转向"这个人在特定领域是否形成了AI难以替代的判断力积累"。
但这个转变在实操中极其困难,原因很简单:判断力很难在面试里被测量。
面试能测量的,大部分是表达能力、逻辑能力、记忆能力——这些恰好是AI最容易强化的能力,也是AI时代护城河价值最低的能力。真正有价值的判断力,往往在面试里表现为"说不清楚"——因为它是隐性知识,是在具体场景里才会显现的直觉,而不是可以被清晰表达的知识体系。
一个在跨境物流行业做了十年的人,他对"这批货到底能不能准时到"的判断力,是在十年的真实交付数据、供应商崩溃事件、海关清关异常里一点点形成的。你让他把这个判断力讲清楚,他可能讲得很平淡,甚至讲不出什么有逻辑感的框架。但他的判断准确率,是任何新人无法比拟的。
这种隐性的、场景绑定的判断力,才是AI次方效应的真实放大对象。
AI放大的不是聪明,是深度。
所以对创业公司而言,AI时代的选人逻辑应该是:
不问"你有多聪明",问"你在哪个具体领域,做过什么别人很难复现的判断,然后被证明是对的"。
不看教育背景和表达能力,看在特定问题上的判断记录——做过什么,赌对了什么,错在哪里,从错误中得到了什么修正。
七、两种组织的命运分叉
基于以上的分析框架,我们可以描绘出AI时代两种组织的命运分叉。
第一种:执行型组织。
这类组织的核心能力是"把事情做完"。它的管理体系优化的是流程、速度、质量控制和资源调配效率。人在这类组织里扮演的角色,本质上是标准化流程的执行节点。
AI对这类组织的冲击是毁灭性的。执行节点可以被AI替代,而且替代的速度比大多数管理者预期的要快。
更糟糕的是,执行型组织在AI冲击到来之前往往活得相当好,这让它们对危机的感知特别迟钝。等到危机真正到来,组织的转型惯性已经积累到了很难扭转的程度。
第二种:判断力沉淀型组织。
这类组织的核心能力是"在特定领域持续形成更好的判断"。它优化的不是执行速度,而是反馈循环质量、试错密度、判断力的物理沉淀机制。
AI对这类组织是倍增器,而不是替代者。判断力越深,AI放大的效果越显著。
两种组织在表面上可能看起来差不多——都有人、都有流程、都在执行任务。差别在底层逻辑:判断力沉淀型组织的每一次执行,都在产生认知积累;执行型组织的每一次执行,只在消耗资源。
从投资和创业的角度,识别这两种组织的方法很简单:
问一个问题——这家公司今天的判断,和三年前相比有多少不同?这种不同能不能被明确地归因于某种具体的认知积累?
能清晰回答这个问题的,往往是判断力沉淀型组织。回答不出来,或者把答案归结为"我们更有经验了"这种模糊说法,往往是执行型组织在用叙事掩盖认知停滞。
八、建设判断力沉淀型组织的五个操作
理论讲完,回到实操。对一个正在建设或重建组织的创业者来说,具体应该做什么?
第一:为你的核心业务建立一个"判断力档案"系统。
这是最简单也最少人在做的事。
把每一个重要的业务判断记录下来:判断的内容是什么,做出判断时依据的是什么,最终结果如何,结果和判断的偏差在哪里,从偏差中得到了什么修正。
这个档案不需要多复杂,一个结构化的文档就够。但它要被定期回顾,要被新来的人学习,要成为组织判断力的物理载体之一。
不做这件事,每一次判断都是一次性消耗;做了这件事,每一次判断都在给组织的护城河加厚。
第二:把"反馈速度"作为核心产品指标来优化。
大多数创业公司在优化用户增长、收入、留存,很少有人把"从决策到反馈的时间"当成一个需要系统优化的指标。
但这个指标可能比其他所有指标都更根本性,因为它决定了你的判断力形成速度。
反馈速度慢,不一定是因为执行慢,更多是因为度量体系不完整、数据没有被结构化、反馈的解读没有被标准化。把这些问题解决掉,往往比招更多人更有价值。
第三:在团队里区分两类角色:判断力生产者和判断力执行者。
这个区分很少被明确做出来,但它对资源配置的影响极大。
判断力生产者是那些在特定领域有深度积累、能持续产生新洞察的人。他们是组织护城河的核心,对他们的投入应该不计短期回报。
判断力执行者是那些能准确理解和执行既有判断的人。他们同样重要,但他们的角色在AI时代会快速演变——AI正在大幅提升执行效率,所以这类角色需要更少的人力,但每个人需要更强的AI使用能力。
很多管理者混淆了这两类角色,最后要么把判断力生产者当成执行机器压榨,要么把判断力执行者捧成核心骨干过度保护。两种错误都在削弱护城河。
第四:建立"场景难度"梯队,让人才在难度升级中形成判断力。
一个人的判断力,不会在舒适区里增长。
为你的核心人才设计一个"场景难度梯队":从当前能力边界出发,依次推进到稍难、更难、极难的真实场景,每个层级都有真实的反馈和后果。
注意,这里说的是"真实"——真实的资源约束、真实的不确定性、真实的后果。不是培训课程,不是模拟演练,而是真实业务中有意识地推升难度。
这类似于军事训练里的"实战演习原则":最好的训练,是最接近真实战场的训练。对判断力的训练也是一样,越接近真实的高难场景,训练效果越好。
第五:重新设计"失败的代价"结构。
前面说到要区分探索性失败和执行性失败。在实操层面,这需要在组织里明确两件事:
一是探索性失败的保护机制:明确哪些类型的失败是被保护的,做到了什么边界之内的失败不影响对当事人的评价,并且要公开案例,而不只是在价值观手册里写一句"我们鼓励创新"。
二是执行性失败的代价透明化:什么是已知正确方法上的失误,这类失误的代价是什么,要让组织里每个人都知道。
这两件事不做清楚,"容错文化"就只是一句口号。做清楚了,它才能成为判断力形成的真实土壤。
九、一个投资视角的补充
写这篇文章的出发点是为创业者和管理者提供实操框架,但我也想从投资视角补充一点,因为两个视角本质上是对同一个问题的不同侧面。
投资界有一种流行的说法:投人,不投项目。
这句话在AI时代需要升级一下——
投判断力的物理载体,不只是投人。
什么是判断力的物理载体?数据是,但不是所有数据;场景是,但不是所有场景;团队是,但不是所有团队。
真正有价值的,是在特定场景约束下、经过足够长时间的高频真实反馈循环、沉淀了不可迁移判断力的组织。
识别这样的组织,有一个实用的测试:
把这家公司核心团队的前五个人同时换掉,剩下的组织还能不能做出接近的判断质量?
如果能,说明判断力已经成功物化在了组织的系统、数据、流程和剩余团队里,不依赖于任何单一的人——这是真正的护城河。
如果不能,说明判断力还只存在于几个关键人的脑子里——这不是护城河,这是人才风险。
以这个标准看中国的AI公司,你会发现一个有趣的分布:大多数公司的"护城河"其实只是"核心人才的不可替代性",而不是真正意义上的组织级不可迁移判断力。这个区别,在顺风时不重要,在逆风时是生死之别。
写在最后
我想用一个比喻来收尾。
护城河这个词本身就是一个好比喻:护城河不是一夜之间挖出来的,也不是靠某种单一材料建成的,它需要水源持续补给(场景和数据的持续输入)、需要足够的深度(时间的积累)、需要合适的位置(和城池的战略匹配)。
很多人看到一条护城河,会觉得它的价值来自于"水很深"。但真正的价值来自于"这条水的来源,别人很难复制"。
AI时代,护城河的水源变了——不再是信息优势,不再是执行效率,而是在特定场景约束下,通过高频真实反馈循环,以时间为代价沉淀下来的不可迁移判断力。
这种判断力,既不在某个人的简历上,也不在某张组织架构图里,更不在任何一份价值观手册的封面上。
它在每一次正确判断的记录里,在每一次错误之后的复盘里,在每一个高难场景之后活下来的决策里,在整个组织用无数次反馈循环沉淀出的、不需要言说也能彼此理解的集体直觉里。
这才是AI时代真正难以复制的东西。
本文约7200字。欢迎转发给正在思考组织建设的创业者和管理者。
夜雨聆风