乐于分享
好东西不私藏

【圆桌】当AI开始“指点”你的工作

【圆桌】当AI开始“指点”你的工作

分享一个正在蔓延的焦虑。
你的领导让AI改了你的报告。改完之后,他把AI的版本当作标准,反过来要求你。
你没有机会解释为什么AI的修改可能错了。因为「AI都这样改了」——这句话听起来像一个终局,而不是一个问题的开始。
这种感觉不是你一个人的。
无数专业工作者正在经历同样的困境:他们的产出被AI「优化」,然后被当作参照标准。他们对自己的专业性足够自信,却被绕过了。他们不认可AI在专业领域的判断,却无法拒绝。
他们开始怀疑:这是「我执」吗?还是一种正在被侵蚀的东西?
我们要追问的不是「AI好不好用」。
而是:在AI时代,专业判断的权威从何而来?
       

发生了什么?
01
最直接的变化,是评价标准的迁移。
以前,一份专业报告好坏,由懂行的人来判断。现在,领导让AI改一遍,然后把AI的版本当作「更好」的标准。
这个迁移看起来中立。毕竟AI改了格式、调整了措辞、让文字更流畅——有什么问题?
问题在于:AI给出的不是中立优化,而是平均化选择。
AI的训练数据里,包含了大量符合规范、四平八稳的内容。它「改」出来的东西,往往不是变好了,而是变得更安全了,更符合一般标准了。
对于真正有创造性的专业工作,这种「安全化」是致命的。
更深层的问题是:当AI修改被当作标准,它就获得了超越单个报告的杀伤力。所有人隐含地被要求向它看齐。
这不是效率的提升,这是评价体系的转移。
       

为什么会这样?
02
AI能触及的,是显性表达层。
你写下的文字、呈现的数据、做出的结论——这些都是显性的。AI可以重组它们,润色它们,甚至推翻它们。
但专业判断的核心,是隐性知识。
这是迈克尔·博兰尼物理化学家/哲学家,主张隐性知识不可言传,AI只能触及显性层提出的概念。他说:
我们知道的东西,远比能说出来的多得多。一位资深建筑师看到图纸,脑海中立刻浮现出结构受力后的微妙形变。这种判断,她无法完整写下来。它存在于她的身体、感知和无数次失败的修正之中。
AI做的,是对显性知识的重组与外推。它可以处理你写出来的东西,但无法进入那个生产它们的隐性世界。
所以,当AI修改你的报告时,如果只是润色文字、调整格式——可以接受。但如果修改涉及对结论的推翻、对判断的修正——它在做一件没有资格做的事。
因为它面对的是你隐性知识的外显化结晶。而它根本没有进入那个知识世界的入口。
       

表达和认知,是分开的吗?
03
一个更危险的幻觉是:修改表达不影响认知。
这个幻觉预设了一个前提:显性知识和隐性知识是两层,可以分离。好像70%在你脑子里,30%在纸上。AI改纸上的东西,脑子里的不动。
但这不是事实。
隐性知识和显性知识是一体的两面。当你写下一个判断,那不是从真空里蹦出来的——它是你隐性知识经过漫长内化后,终于结晶的表达。这个结晶和产生它的理解过程,是有机整体。
语言不只是容器,也是模具。
如果一个外行反复修改你的表述,你最终会开始相信那个表述所暗示的东西。不是因为你被说服了,而是因为你的表达方式改变了,反向重塑了你的思维。
所以,当AI修改了你30%的显性表达,它不只是修改了文字。它在悄悄松动产生那些文字的认知结构。而那个结构一旦松动,你下次写出来的东西,就会更接近AI的风格,而不是你自己的。
这是一个缓慢的自我殖民过程。
       

「我执」的两副面孔
04
威廉·詹姆斯心理学家/哲学家,主张专业自我是真实存在,防御有正当性)会问你一个问题:你抗拒AI修改时,内部发生的是什么?
有两种截然不同的心理过程
第一种:你知道AI说的不对。你的专业直觉告诉你,这个修改和你的判断相悖,而且你能说清楚为什么。这是有知识支撑的尊严,值得捍卫
第二种:你感觉AI说的不对。你没有明确的专业理由拒绝,但你就是感觉被冒犯、被威胁。这可能是一个还没被意识到的正确直觉,也可能是你的专业自我受到威胁后产生的防御反应
问题是:这两种反应,在感受上几乎一样。
你自己很难区分。
所以一个临床建议是:在抗拒AI的时候,先问自己——「我能用专业语言说清楚为什么拒绝吗?」
能说清楚,就坚持。说不清楚,先想清楚——也许你的抗拒里,有一部分是恐惧,而不是判断。
       

权威从何而来?
05
我们把问题翻过来看。
我们一直在问「AI有没有资格改?」——但这已经是在接受AI合法性的前提下讨论例外。
真正的问题是:谁有权决定AI有没有资格?
是那个让AI来改你报告的人。
如果那个人对这件事本身没有专业判断力,他怎么知道你接受AI修改是对的?他判断不了。所以他在用一个他同样不理解的东西(AI),来逃避他的责任。
这不是AI的问题。这是责任逃避的制度化。
最聪明的领导知道自己不懂,所以会在具体问题上信任专家。最懒惰的领导说「让AI看看」——这让他既不需要学,也不需要承认自己不懂,还多了一层「我们用AI了」的现代感包装。
所以,当有人拿AI当尚方宝剑的时候,你应该问一句:
「你让我按AI的标准改,你能告诉我为什么AI的标准更好吗?」
如果他答得出来,那是一次正常的专业讨论。如果他答不出来,他根本不是在用AI,他是在用AI作为不学无术的遮羞布。
       

三层空间
06
艾伦·图灵计算机科学之父,主张回到「机器能做什么」,破除AI神话给出一个框架:AI辅助的三层空间。
第一层:执行层。格式、排版、语法、数据整理——AI完全权威。这个层面,它的效率无可争议。
第二层:规范层。逻辑自洽性、论据完整性、方法论规范性——AI有辅助权,但需要人工确认。它可以指出「你做得对不对」,但决定权还在人。
第三层:判断层。结论的价值取向、研究方向的选择、叙事框架——AI零权力。它无法拥有「为什么这件事重要」的判断。
大多数关于AI介入的冲突,发生在第二层和第三层之间的那条模糊线上。
当领导让AI「润色」你的报告,AI做的可能不只是润色。它可能在悄悄把第二层问题当作第三层问题来处理——比如把一个大胆的结论「修正」为安全的结论,因为它的训练数据里见过太多安全的内容。
分清三层,不让AI从执行层悄悄滑到判断层,是保护自己的前提。
       

三年后你会变成什么
07
克莱·舍基互联网研究者,主张技术改变的是评价体系,不是专业本身)给出一个时间维度的测试:
当你接受(或拒绝)AI的修改建议时,问自己:「如果我以后一直这样接受(或拒绝),三年后我会成为一个更强的专业人士,还是一个更弱的?」
这个测试很简单,但威力巨大。
  • 如果你因为不懂某个技术规范而接受AI修改——接受。因为你在学习。
  • 如果你因为没有自信而接受AI修改——拒绝。因为你正在训练自己不信任自己。
  • 如果你因为「领导说AI的版本更好」而接受——先问为什么,再决定。因为你没有在做专业判断,你在服从权力。
让AI做你的老师,不做你的替代者。
       

失去叙述权
08
詹姆斯还有一个更深的判断标准:
AI的介入有没有让你对自己的工作失去叙述权?
如果AI修改之后,你无法再向别人解释「我为什么这样写」——那30%已经被悄悄替换了。
而那70%还在你的脑子里,但你和它的连接已经被切断了。
这是最危险的情况。
你的专业身份正在被悄悄改写,而你甚至没有意识到。
       

本质是什么?
09
把所有讨论放在一起,问题就清晰了。
专业判断的本质,是隐性知识的结晶。AI触及不到那个世界。
权威的本质,是来自理解的权力。AI有技术能力,但没有认识论意义上的权威——权威不是「能答对」,而是「知道自己在答什么」。
边界问题,本质上是权力问题的伪装。我们讨论「AI能改什么」,但真正的问题是「谁有权决定AI能改什么」。
       

结论
10
AI介入专业工作的合法性,取决于三个条件:
  1. 它在执行层或规范层做事,而不是判断层
  2. 那个用它的人有足够的专业权威来承担结果
  3. 你在过程中没有失去对自己工作的叙述权
回到那个让你感到不舒服的时刻。
你抗拒的,可能不只是一次修改。而是一种权威的来源正在被悄悄替换:从「懂行的人」变成「统计模式」。
这个替换,值得被认真抵抗。
注:文中出现的名人均为【圆桌】技能召集