想要3句话,AI写了2000字.大模型越强,怎么反而还越容易出错?

以前我的笔记很乱,有些是读书摘抄,有些是看视频记的要点,还有些是突然想到的念头。它们散落在obsidian不同的笔记里,没有分类,结构也是比较混乱。后来我让Claude帮我整理,希望它给笔记分个类。它一顿操作猛如虎,几分钟后,Claude给了我一个完整的知识库方案,还不只是分了类。它重新设计了整个体系,用的是流行的PARA四层结构,给每个结构补充了定义和背景,建立了笔记之间的关联关系,标注了哪些是基础概念、哪些是进阶内容,甚至,还给我推荐了几本书。我看着这个方案,第一反应是:哇,好专业。第二反应是:这还是我的笔记吗?那些我自己的理解、自己的困惑、我觉得重要的点,都被“优化”掉了。剩下的是一个标准的、完整的、但完全陌生的知识图谱。

太强也是问题?
这不是Claude的问题,恰恰是因为Claude太强了。它知道什么是好的知识体系,它知道概念之间应该怎么关联,它知道学习路径应该怎么设计。正因为它什么都知道,所以它会本能地把任务做到完美。但完美不等于你想要的。我后来又试了几次,换了不同的场景。总结一本书,我本来只想要几个关键观点,它给我写了2000字的读书笔记,包括作者背景、写作动机、核心论点、论证逻辑、现实意义,还有延伸阅读建议。整理会议记录,它给我写了完整的会议纪要,包括每个人的发言要点、讨论过程、决策依据,还有会议背景说明。AI给的答案都“很对”。但每一次,我都要花时间从这些“完美”的输出里,找回我真正需要的那一小部分。这让我想起一个词:能力的诅咒。能力越强,可能性空间就越大。可能性空间越大,就越容易偏离你的真实需求。就像你新请了一个助理,你让他帮忙收拾一下桌子,他可能只是把东西摆整齐,也可能把东西分类整理到抽屉里,甚至还可能把你整个房间都重新布置一遍。他不是故意的,他只是在尽所能帮你做到最好。问题是,他理解的“最好”,可能跟你需要的不是一码事。和你妈让你穿秋裤,一个道理。
边界在哪?
很多人开始意识到,用AI的关键在于:我要让它做什么。这听起来像废话,但实际操作起来完全不一样。前两年,提示词工程还是个需要认真学习的技能,人人都在死磕,还提出了很多提示词的架构。后来模型能力越来越强,很多人以为可以不用那么精确了,给个大概方向,模型反而有更大的发挥空间。没毛病,提示词,确实比起以前相对不重要了,但模型越强,边界越重要。还是整理笔记这件事,我后来换了个说法:“把这些笔记按主题分类,只分类,不要补充内容,不要建立关联,不要优化结构。分完类之后,把每个主题下的笔记按时间排序。”这次Claude给的结果,就是我想要的。它没有重新设计知识体系,没有补充定义,没有建立关联。它只是老老实实地把笔记分了类,按时间排了序。简单,直接,有用。AI的能力是天花板,它决定了上限。但约束是地基,是下限,它决定你能不能稳定地得到你想要的结果。你不仅要说清楚你要什么,更要说清楚你不要什么。没有约束的能力,就像一辆没有方向盘的跑车。你根本不知道它会开到哪里去。

约束是什么?
给AI加约束,会不会限制它的能力?根本不会。约束不是在削弱AI,而是在告诉它怎样算是做对了。没有约束的时候,AI只能按照它自己的理解来判断什么是“好”的结果。而它的理解,往往是又完整又专业又全面。但你真正需要的,不过是简单、直接、够用。这个差距,就是约束要填补的。我又拿写周报这件事做了尝试。没有约束时,AI给我写了800字,包括工作概述、项目进展、数据分析、下周计划、个人总结,每个部分都用无序列表详细展开。加上约束后,AI只写了150字:本周完成3条,下周计划2条,简单明了,没有形容词。两个版本都是AI写的,能力是一样的。但结果完全不同。第一版,AI在秀肌肉。第二版,AI真正在解决我的问题。
不是对立
最近人们在讨论一个更大的问题:到底是模型能力更重要,还是约束更重要?前段时间,Claude推出了Harness的概念,让开发者可以给模型加上结构化的约束。很多人第一反应是:这不是在限制模型的能力吗?只是他们没有想清楚。Harness的出现,说明追求更强的模型,和设计更好的约束,不需要二选一。能力和约束,不是对立的。能力决定了可能性的边界,约束决定了你能不能稳定地在边界内达到目的。就像赛车手需要一辆性能强大的赛车,更需要一条清晰的赛道。无论模型强弱,约束都必不可少。

能力强的模型,它的可能性空间太大了。它可以写诗,可以写代码,可以写论文,可以写段子。你让它帮忙写点东西,它有一万种方式来理解你的需求。不约束,它只能猜,猜怎么做到最完整、最专业、最全面,生怕出错。用强的模型时,你会发现它容易“想太多”。正是它太聪明了,会考虑各种可能性,然后给你一个最保险的答案。而这个最保险的答案,往往不是你想要的。对于能力弱的模型,约束同样重要。比如早期的GPT-3.5,你就算给它很详细的约束,它也很难给出高质量的输出。但没有约束,它连方向都找不到。
怎么做?
我们应该怎么用AI?我现在的习惯是:在给AI任务之前,先想清楚三件事。我到底要什么?想清楚最后要得到什么结果。比如整理笔记,我要的是“能让我快速找到之前记过的内容”。这个问题想清楚了,后面的约束才有方向。AI可以动什么,不能动什么?这是在划边界。比如让AI改邮件,它可以改语气、改用词,但不能改核心意思。让AI整理笔记,它可以分类、排序,但不能补充内容。边界划清楚了,AI才不会“越界”。我怎么知道AI做对了?这是在设检验标准。比如写周报,标准是“200字,3条要点,每条一句话”。整理笔记,标准是“按主题分类,每个主题下按时间排序”。有了标准,你才能判断AI的输出是不是你想要的。这三个问题,都在做一件事:把你脑子里模糊的需求,变成清晰的约束。AI不会读心术,它只能按照你给的信息来工作,当然,这不是说每次用AI都要写一大堆约束。简单的任务,简单的约束就够了。复杂的任务,才需要更详细的约束。关键是:你要知道自己在做什么。现在AI越来越强了,GPT-5.5、Claude Opus 4.7、Gemini 3.1 Pro,一个比一个厉害。但真正能用好它们的人,不是那些懂最多技术的人,而是那些最清楚自己要什么的人。你画出的边界,决定了AI能帮你走多远。

夜雨聆风