乐于分享
好东西不私藏

AI 时代的反向三定律:别把判断力外包给模型

AI 时代的反向三定律:别把判断力外包给模型

最近看到 Susam Pal 写的 Three Inverse Laws of AI ,标题借了阿西莫夫“机器人三定律”的壳,但真正有意思的地方不是科幻,而是它把今天使用 AI 最容易犯的三个错误讲得很清楚。

我看到这篇文章时,第一反应是:这不就是现在很多人最容易踩的坑吗?

AI 会解释,会道歉,会给建议,会把错误包装成很顺的语气。它不再像过去的搜索引擎那样给你一堆链接,而是直接端出一个看起来已经完成的答案。

这当然很好用。

但也正因为太好用,它会让人慢慢忘记一件事:AI 替你降低的是生成成本,不是判断成本。

先说结论

AI 时代真正重要的能力,不是会不会提问,而是能不能守住判断力。

过去一年,很多讨论都在讲 Prompt。

怎么写指令,怎么给角色,怎么拆步骤,怎么让模型输出 JSON、 Markdown,怎么让 Claude Code 或 Codex 更稳定地完成任务。

这些当然有用。我自己也每天用。

但我越来越觉得,Prompt 只是第一层。更长期的能力是验收,是判断,是能不能在一个答案写得很顺时,仍然停下来问一句:它到底对不对?

Susam Pal 的三条反向定律,可以压成三句中文。

  • 不要把 AI 当人
  • 不要把 AI 的输出当结论
  • 不要把责任推给 AI

原文对应的三个英文标题是:

  • Non-Anthropomorphism
  • Non-Deference
  • Non-Abdication of Responsibility

如果用英文短句来对照,可以理解为:不要拟人化 AI,不要盲从 AI 输出,不要放弃人类自己的责任。

这不是反对使用 AI。恰恰相反,这是更成熟地使用 AI。

这三条听起来简单,但它们正好卡住了今天所有 AI 工作流里最核心的风险。

第一条解决的是关系错位。AI 是工具,不是同事。

第二条解决的是认知偷懒。AI 会生成答案,但不自动生成事实。

第三条解决的是责任边界。你可以让 AI 帮你写、帮你查、帮你改,但最后署名、提交、发布、发送的人还是你。

如果只把 AI 当“效率工具”,这三条就够用了。

如果要把 AI 接进生产系统、研发流程、内容发布和客户沟通里,这三条就更像底线。

第一条:不要把 AI 当人

今天很多 AI 产品都在往“人”的方向设计。

它有名字,有头像,有语气,有记忆,有时候还会表现得很体贴。你问它一个问题,它会先肯定你,再一步步展开。你指出它错了,它会说抱歉,然后给出一个新版本。

这些交互体验很顺,但也会制造一个错觉:你正在和一个理解世界、理解责任、理解后果的对象对话。

实际上不是。

AI 没有生活经验,没有真实处境,也没有自己的责任感。它只是根据输入、上下文和训练中学到的模式,生成一个看起来合理的输出。

这不是贬低它。恰恰相反,只有把它放回工具的位置,才能真正用好它。

你不会因为编译器报错语气很冷,就觉得它不尊重你。也不会因为搜索引擎返回了十条结果,就认为它“相信”第一条。我们早就习惯把这些系统当工具使用。

但 AI 的自然语言界面太像人了,所以它比搜索引擎和编译器更容易诱导你建立错误关系。

数字偶像歌手 Yuri 是一个很好的例子。

AI·Talk Yuri

AI.TALK 官网把 Yuri 称作“国内首位 AI 原生歌手”,她在 2025 年 6 月推出首支单曲《Surreal》。官方 YouTube 视频标题也直接写着 Completely AI-Generated Music Video 。从画面、表情、运镜、口型到舞台感,这类 AI 数字人已经非常接近真实偶像的观看体验。AI.TALK 也介绍说,Yuri 的首支单曲全网播放突破 1100 万次,粉丝量接近 80 万,并且已经进入品牌合作、演讲和商业化场景。

这恰好说明问题所在。

当一个 AI 数字人能唱歌、营业、互动、拥有稳定人设,还能接住品牌和粉丝的注意力时,人会很自然地把“作品的真实感”误读成“主体的真实性”。但 Yuri 再真实,也不是一个真实的人。她没有自己的生活经验、创作意图和责任能力。真正做出审美判断、技术取舍、商业合作和内容发布决策的,仍然是背后的人类团队。

所以 Yuri 这种案例不是在削弱“不要把 AI 当人”这条原则,反而是在强化它:AI 越能模拟人,我们越要清楚哪里是表演,哪里是系统,哪里才是真正承担责任的人。

一旦你把它当人,很多判断都会变形。

它说得很笃定,你就更容易信。

它说“我建议”,你就更容易把它当专家。

它说“我理解你的意思”,你就容易以为它真的理解了你的业务约束。

这也是为什么我越来越不喜欢用“AI 同事”这个比喻。它适合做产品营销,不适合做工作方法。

更准确的说法是:AI 是一个高带宽的草稿生成器、检索辅助器、结构化助手和推理模拟器。

它可以加速你,但不能替你成为那个负责的人。

第二条:不要把 AI 的输出当结论

很多人用 AI 出问题,不是因为不会问,而是因为太快接受答案。

AI 最擅长的是给你一个“看起来已经完成”的东西。

一段解释,一份表格,一段代码,一个总结,一封邮件,一套方案。它通常不会像一个初级同事那样留下明显粗糙的痕迹,反而会把内容整理得很完整。

这很有用,也很危险。

因为完整感会降低警惕。

尤其是在你不熟悉的领域,AI 的输出很容易变成一种“语气上的权威”。它把答案写得越顺,你越不容易意识到里面可能有错。

所以我觉得所有 AI 工作流都应该默认加一层验收,而不是默认信任。

写代码时,验收层是测试、类型检查、构建、代码审查。

写文章时,验收层是来源、日期、数字、原文上下文。

做调研时,验收层是一手资料、交叉验证和反例搜索。

做产品方案时,验收层是用户场景、约束条件和落地成本。

也就是说,AI 给你的不是结论,而是一个候选版本。

你要做的不是“看它像不像对”,而是问:这个输出经过了什么验证?

这里面有一个很实用的判断标准:凡是可以自动验证的东西,尽量不要只靠人工感觉。

代码能跑测试,就跑测试。

数据能查来源,就查来源。

链接能打开,就打开。

API 用法能看官方文档,就看官方文档。

事实能追到原始出处,就不要停在二手转述。

AI 会让产出速度变快,但速度越快,越需要验收层跟上。否则你只是把错误生产得更快。

第三条:不要把责任推给 AI

这是最重要的一条。

“AI 让我这么做的”不是一个有效解释。

如果你把 AI 生成的代码合进主分支,最后负责的是你。

如果你把 AI 总结的内容发给客户,最后负责的是你。

如果你把 AI 给出的数字写进文章,最后负责的是你。

如果你把 AI 生成的结论拿去影响产品、招聘、投资、医疗、法律、教育这些高风险决策,最后负责的仍然是你。

AI 可以成为过程的一部分,但不能成为责任主体。

这件事在开发者场景里特别明显。

以前你复制 Stack Overflow 上的代码,代码炸了,不能说“Stack Overflow 让我复制的”。现在你复制 AI 写的代码,出了问题,也不能说“模型这么生成的”。

工具不会替你承担上线事故。

更现实的是,AI 生成的东西经常处在一种很尴尬的中间态:它不是完全随机的,也不是完全可靠的;它不是没有价值,也不是天然可信的。

人类的责任没有减少,反而变得更集中。

过去你可能要亲自写一百行代码,所以错误分散在写作过程中。现在 AI 一次生成一百行,你的责任就集中在“是否接受、如何验证、要不要发布”这几个决策点上。

这也是 AI 工具真正改变工作方式的地方。

它减少了生成成本,但提高了判断成本。

真正需要训练的是“验收能力”

很多 AI 教程喜欢讲 prompt。

怎么写指令,怎么给角色,怎么拆步骤,怎么让模型输出 JSON,怎么让它先思考再回答。

这些当然有用,但我觉得它们只是第一层。

更长期的能力是验收。

你能不能看出一个答案只是说得顺,但证据不足?

你能不能发现一段代码没有处理边界条件?

你能不能判断一个方案省略了真实世界最麻烦的部分?

你能不能在 AI 给出三个选择时,知道它没有覆盖第四个更好的选择?

这才是 AI 时代的关键差距。

不会用 AI 的人,会慢。

只会让 AI 生成的人,会快但不稳。

真正厉害的人,是能把 AI 的生成能力接到自己的判断系统里。

这也是为什么我觉得“AI 会不会取代你”这个问题有点粗糙。更准确的问题是:当生成变得廉价之后,你还剩下什么不可替代的判断?

我现在越来越相信,未来几年真正拉开差距的不是“谁会问 AI”,而是“谁会验收 AI”。

写代码时,能不能看出一段实现只是能跑,但没有处理边界条件?

写文章时,能不能发现一个数字虽然顺眼,但来源并不可靠?

做调研时,能不能看出一份行业地图结构漂亮,但关键公司和时间线没有追到原始出处?

做产品方案时,能不能意识到模型省略了真实世界里最麻烦的组织成本、迁移成本和安全边界?

这些能力看起来没有 Prompt 技巧那么酷,但它们才决定 AI 产出能不能进入真实世界。

可以把这三条落成工作流

这三条反向定律不是口号,可以直接变成日常工作流。

如果是写代码,我会这样用:

  • 让 AI 先给方案,不直接改核心路径
  • 让 AI 生成测试或补充边界条件
  • 本地跑测试、类型检查和构建
  • 对安全、权限、数据迁移这些地方人工复查
  • 合并前确认自己能解释每一处关键改动

如果是写文章,我会这样用:

  • 让 AI 先提纲,不直接当成最终稿
  • 所有数字、日期、公司名、产品能力追原始来源
  • 对二手报道保留“据报道”“媒体称”这类边界
  • 不确定的地方宁可删掉,也不要让语气显得过度肯定
  • 最后用自己的结构和判断重写,而不是保留模型腔

如果是做调研,我会这样用:

  • 先让 AI 帮我铺地图
  • 再找一手资料确认关键节点
  • 专门让它找反例和风险
  • 把“事实”“判断”“猜测”分开写
  • 最后只保留自己能承担的结论

这套流程看起来慢一点,但它能避免最糟糕的情况:你以为自己在提效,实际上只是把未经验证的东西包装得更漂亮。

AI 越强,人越不能偷懒

这也是这篇原文最打动我的地方。

它没有陷入“AI 是好是坏”的老问题,而是换了一个更实用的角度:当 AI 越来越像人,我们反而更需要提醒自己,它不是人。

这件事放到更大的历史里看,也不新鲜。

人类一直有把不确定性外包给权威的冲动。以前可能是占卜,后来是专家,再后来是搜索引擎,现在是 AI。

我们都想要一个声音告诉自己:放心,就这么做。

因为自己判断太累了,承担后果也太痛苦了。

但 AI 的出现没有取消这件事,只是把它放大了。

它能生成更多选择,也会制造更多需要判断的候选项。它能让你更快进入工作状态,也可能让你更快接受一个未经验证的答案。

所以 AI 越强,人越不能偷懒。

这里的“不偷懒”,不是说所有事情都要手工做一遍,而是不要把最后那一下判断交出去。

写在最后

AI 最好的状态,不是替你思考,而是把你的思考放大。

你可以大量使用它,让它帮你搜索、总结、写草稿、写代码、做对比、找漏洞、提建议。

但你不能把它当成责任主体。

如果你本来就有判断,它会让你的判断跑得更快。

如果你本来就没有判断,它也会让你的混乱跑得更快。

这才是 AI 时代最公平、也最残酷的地方。

所以我最后还是回到这三句话:

不要把工具当人。

不要把输出当结论。

不要把责任推给模型。

把这三条守住,AI 才会变成真正的杠杆,而不是一台会生成漂亮错误的机器。

参考来源

  • 「Three Inverse Laws of AI」https://susam.net/inverse-laws-of-robotics.html
  • 「Isaac Asimov’s Three Laws of Robotics」https://en.wikipedia.org/wiki/Three_Laws_of_Robotics
  • 「AI.TALK:代表案例 Yuri」https://ai-talk.ai/
  • 「YURI – SURREAL Completely AI-Generated Music Video」https://www.youtube.com/watch?v=KHSr80Rnm9k