AI 时代,法律人的四张底牌不在工具里
书名:《原始智能》(Primal Intelligence: You Are Smarter Than You Know) | 作者:安格斯·弗莱彻 | 推荐指数:★★★★☆一句话推荐:AI 处理确定性,你处理不确定性——这才是法律人真正的护城河

上周,一个做了十五年公司法务的朋友跟我说了句话:“我现在每天打开 AI,都觉得自己又废了一点。”
他不是能力差。年审上百份合同,并购尽调做过不下二十轮,客户评价一直不错。但最近半年,他看着 AI 三分钟生成一份合同初稿,二十秒跑完一轮风险扫描,开始怀疑自己这些年到底积累了什么。
这种感觉你应该不陌生。你每天打开 ChatGPT。你关注了所有法律 AI 大 V。你试用了五六款合同审查工具。你加了十几个法律 AI 交流群。你甚至花好几百订阅了一个 AI 法律助手——但打开次数,你自己心里有数。
你焦虑的不是 AI 太强,是你不确定自己还有什么是 AI 做不了的。
安格斯·弗莱彻的新书《原始智能》回答的就是这个问题。弗莱彻是俄亥俄州立大学”叙事项目”(Project Narrative) 的故事科学教授,长期研究人类认知中机器无法复制的部分。他提出了一个框架:人类有四种”原始智能”——直觉、想象力、情绪、常识。这四种能力的共同特征是处理不确定性,而这恰恰是 AI 最弱的环节。
对法律人来说,这不是心灵鸡汤。这是一个严肃的职业定位问题:你的价值到底在确定性里,还是在不确定性里?

直觉:你能读出合同里没写的东西
弗莱彻把直觉定义为”超越数据的洞察”——在信息极少、没有先例的情况下,捕捉被忽略的关键信号。他特别强调,直觉不同于卡尼曼”快与慢”框架里的系统一,它不是经验的快速调取,而是对”隐形规则”的穿透力。
法律工作里,直觉用得比你以为的多。一份合同摆在面前,条款写得滴水不漏,但你读完总觉得哪里不对。你说不清是第几条有问题,但经验告诉你这个交易结构背后有没说出口的安排。这种感觉不是玄学,是你审了上百份合同之后,大脑对异常模式的自动预警。
AI 审合同,审的是字面风险。它能告诉你”第 8 条缺少不可抗力条款”,但它读不出”这份合同之所以写成这样,是因为对方在故意绕开某个问题”。
AI 看条款,你看意图。
弗莱彻讲了一个自己的亲身经历:他给一岁多的孩子喂饭,勺子掉了,他换了一把一模一样的干净勺子。孩子大哭,直到他把地上那把洗干净还回来才停。在孩子的世界里,没有两把”一样的”勺子——成年人因为太习惯模式化,反而丢掉了这种对独特性的感知力。法律人的直觉,就是在模式化的合同文本中保留这种”不被格式绑架”的敏锐:你的对手方律师换了一种措辞,你的客户在电话里停顿了两秒——这些信号 AI 抓不到,但你能。
想象力:你能构建从未存在过的交易方案
弗莱彻区分了两种创造力。AI 做的是”概率重组”——基于过去数据,计算出最可能的组合方式;人类的想象力是”可能性探索”——构建从未发生过、但不违背规则的全新场景。他用一个词概括这种能力的来源:好奇心。孩子天然会追问”如果天空是绿色的会怎样”,这种 what-if 思维是创造力的真正起点。
这对法律人意味着什么?想想你做过的最复杂的交易。那些真正有价值的法律方案,不是从模板库里调出来的。一个并购里双方僵持不下,你设计了一个对赌条款把风险分配在时间线上;一个合资纠纷快要破裂,你想出一个退出机制让双方都觉得自己没亏。这些方案不是检索出来的,是你在具体场景里”构建”出来的。
AI 能生成标准方案,但它不会问”如果我们把交割条件和竞业限制绑在一起呢?”好的法律方案不是一条固定路径,而是一个目标加多条可能路径。
情绪:你的不安是最好的风险预警
这一点可能是法律人最不愿意承认的。我们这个行业习惯把自己包装成”理性决策者”,好像带情绪就是不专业。
弗莱彻的观点正好相反:
情绪是应对未知的预警系统。
恐惧意味着你感知到计划偏离了轨道,愤怒意味着选择正在被窄化到不可接受的程度。这两种信号,AI 没有。
我自己有过这样的经历。审一份合同,条款上没什么大问题,但就是觉得不安。后来深挖才发现,交易对手的关联公司刚被列入执行名单。那种”说不清哪里不对”的不安,不是多余的情绪波动——是你的大脑在替你做条款之外的风险扫描。
AI 会严格执行你给它的审查规则,但它不会”觉得不对劲”。法律工作中大量的关键转折点,恰恰发生在”觉得不对劲”之后的追问里。当你在谈判桌上感到不舒服,那个不舒服就是信息。
常识:知道自己不知道什么
弗莱彻认为常识是人与 AI 最根本的区别。AI 没有”不知道”的概念——它会通过拼凑信息制造看似合理的答案,这就是”AI 幻觉”的根源。而人类的常识让我们明白:不是所有问题都有答案,不是所有答案都可靠。
法律人对这一点应该感触最深。你每天做的事,说到底就是在信息不完整的情况下给判断。客户问你”这个交易能不能做”,你不会说”能”或”不能”。你会说”基于目前的信息,风险可控,但有三个点需要进一步核实”。这种表达不是推诿,是你对认知边界的诚实——而 AI 学不会这个。
AI 给你一份法律意见,它不会主动说”我对这个领域不确定,建议你另外找个专家看看”。它只会给一个自信的答案,不管对不对。弗莱彻用了一个精准的表达:拥有常识的人知道”自己不知道自己不知道”,这种自省能力,是 AI 架构里没有对应物的。法律人的价值,很大一部分就在于知道什么时候说”我不确定”。
盲点:这四种能力也可能变成借口
说到这里,我得提一个反面。
弗莱彻的框架有一个风险:它可能被用来合理化”不学 AI”。有人会想,既然我的价值在直觉、想象力、情绪和常识,那我何必费力学什么 AI 工具?反正那些是机器擅长的事。
这是危险的误读。弗莱彻自己在书的最后也强调,终身学习应当充分利用 AI 工具。他引用了涂子沛”第二大脑”的概念——AI 恰好是整理和复盘的最佳工具,能帮你把零散的灵感变成系统化的知识库。管理大师德鲁克被问到创新的秘诀,回答让人意外:听自己。但前提是你得有工具把自己的灵感记下来、整理好(引自吴晨解读)。
不是”有直觉就够了”,而是”有直觉,还会用 AI 放大直觉,才够”。
法律人的陷阱尤其明显:你觉得经验丰富,合同审查靠手感就行。但手感不等于系统化的判断标准。AI 能帮你把手感变成可复用的审查规则,这不是替代你,是让你的原始智能有了杠杆。
一件你今天就能做的事
如果你是法律人,这本书最值得带走的一个行动:把你最近一次”觉得不对劲”但说不清为什么的经历写下来。
写清楚当时看的是什么文件,哪个地方触发了你的不安,后来验证的结果是什么。这不是写日记,是在把你的直觉显性化。做十次,你就开始能分辨自己的直觉在哪些场景下特别准、在哪些场景下会误判。
AI 能帮你处理确定性的工作。但在那些合同条款写得完美却让你皱眉头的时刻,在谈判桌上对方说了一句话让你心里一沉的瞬间——那些不确定性里,藏着你作为法律人不可替代的东西。
这只是我现在的判断,也许过半年会变。但至少今天看来:
法律人的护城河不在 AI 工具里,在你对”说不清”的事情保持警觉的能力里。
—— Raynox,在法律 AI 路上
夜雨聆风