当前时间: 2026-04-30 11:01:34
更新时间: 2026-04-30
分类:软件教程
评论(0)
【圆桌】当AI开始“指点”你的工作
你的领导让AI改了你的报告。改完之后,他把AI的版本当作标准,反过来要求你。
你没有机会解释为什么AI的修改可能错了。因为「AI都这样改了」——这句话听起来像一个终局,而不是一个问题的开始。
无数专业工作者正在经历同样的困境:他们的产出被AI「优化」,然后被当作参照标准。他们对自己的专业性足够自信,却被绕过了。他们不认可AI在专业领域的判断,却无法拒绝。
他们开始怀疑:这是「我执」吗?还是一种正在被侵蚀的东西?
以前,一份专业报告好坏,由懂行的人来判断。现在,领导让AI改一遍,然后把AI的版本当作「更好」的标准。
这个迁移看起来中立。毕竟AI改了格式、调整了措辞、让文字更流畅——有什么问题?
问题在于:AI给出的不是中立优化,而是平均化选择。
AI的训练数据里,包含了大量符合规范、四平八稳的内容。它「改」出来的东西,往往不是变好了,而是变得更安全了,更符合一般标准了。
对于真正有创造性的专业工作,这种「安全化」是致命的。
更深层的问题是:当AI修改被当作标准,它就获得了超越单个报告的杀伤力。所有人隐含地被要求向它看齐。
你写下的文字、呈现的数据、做出的结论——这些都是显性的。AI可以重组它们,润色它们,甚至推翻它们。
这是迈克尔·博兰尼(物理化学家/哲学家,主张隐性知识不可言传,AI只能触及显性层)提出的概念。他说:
我们知道的东西,远比能说出来的多得多。一位资深建筑师看到图纸,脑海中立刻浮现出结构受力后的微妙形变。这种判断,她无法完整写下来。它存在于她的身体、感知和无数次失败的修正之中。
AI做的,是对显性知识的重组与外推。它可以处理你写出来的东西,但无法进入那个生产它们的隐性世界。
所以,当AI修改你的报告时,如果只是润色文字、调整格式——可以接受。但如果修改涉及对结论的推翻、对判断的修正——它在做一件没有资格做的事。
因为它面对的是你隐性知识的外显化结晶。而它根本没有进入那个知识世界的入口。
这个幻觉预设了一个前提:显性知识和隐性知识是两层,可以分离。好像70%在你脑子里,30%在纸上。AI改纸上的东西,脑子里的不动。
隐性知识和显性知识是一体的两面。当你写下一个判断,那不是从真空里蹦出来的——它是你隐性知识经过漫长内化后,终于结晶的表达。这个结晶和产生它的理解过程,是有机整体。
如果一个外行反复修改你的表述,你最终会开始相信那个表述所暗示的东西。不是因为你被说服了,而是因为你的表达方式改变了,反向重塑了你的思维。
所以,当AI修改了你30%的显性表达,它不只是修改了文字。它在悄悄松动产生那些文字的认知结构。而那个结构一旦松动,你下次写出来的东西,就会更接近AI的风格,而不是你自己的。
威廉·詹姆斯(心理学家/哲学家,主张专业自我是真实存在,防御有正当性)会问你一个问题:你抗拒AI修改时,内部发生的是什么?
第一种:你知道AI说的不对。你的专业直觉告诉你,这个修改和你的判断相悖,而且你能说清楚为什么。这是有知识支撑的尊严,值得捍卫
第二种:你感觉AI说的不对。你没有明确的专业理由拒绝,但你就是感觉被冒犯、被威胁。这可能是一个还没被意识到的正确直觉,也可能是你的专业自我受到威胁后产生的防御反应
所以一个临床建议是:在抗拒AI的时候,先问自己——「我能用专业语言说清楚为什么拒绝吗?」
能说清楚,就坚持。说不清楚,先想清楚——也许你的抗拒里,有一部分是恐惧,而不是判断。
我们一直在问「AI有没有资格改?」——但这已经是在接受AI合法性的前提下讨论例外。
如果那个人对这件事本身没有专业判断力,他怎么知道你接受AI修改是对的?他判断不了。所以他在用一个他同样不理解的东西(AI),来逃避他的责任。
最聪明的领导知道自己不懂,所以会在具体问题上信任专家。最懒惰的领导说「让AI看看」——这让他既不需要学,也不需要承认自己不懂,还多了一层「我们用AI了」的现代感包装。
所以,当有人拿AI当尚方宝剑的时候,你应该问一句:
「你让我按AI的标准改,你能告诉我为什么AI的标准更好吗?」
如果他答得出来,那是一次正常的专业讨论。如果他答不出来,他根本不是在用AI,他是在用AI作为不学无术的遮羞布。
艾伦·图灵(计算机科学之父,主张回到「机器能做什么」,破除AI神话)给出一个框架:AI辅助的三层空间。
第一层:执行层。格式、排版、语法、数据整理——AI完全权威。这个层面,它的效率无可争议。
第二层:规范层。逻辑自洽性、论据完整性、方法论规范性——AI有辅助权,但需要人工确认。它可以指出「你做得对不对」,但决定权还在人。
第三层:判断层。结论的价值取向、研究方向的选择、叙事框架——AI零权力。它无法拥有「为什么这件事重要」的判断。
大多数关于AI介入的冲突,发生在第二层和第三层之间的那条模糊线上。
当领导让AI「润色」你的报告,AI做的可能不只是润色。它可能在悄悄把第二层问题当作第三层问题来处理——比如把一个大胆的结论「修正」为安全的结论,因为它的训练数据里见过太多安全的内容。
分清三层,不让AI从执行层悄悄滑到判断层,是保护自己的前提。
克莱·舍基(互联网研究者,主张技术改变的是评价体系,不是专业本身)给出一个时间维度的测试:
当你接受(或拒绝)AI的修改建议时,问自己:「如果我以后一直这样接受(或拒绝),三年后我会成为一个更强的专业人士,还是一个更弱的?」
-
如果你因为不懂某个技术规范而接受AI修改——接受。因为你在学习。
-
如果你因为没有自信而接受AI修改——拒绝。因为你正在训练自己不信任自己。
-
如果你因为「领导说AI的版本更好」而接受——先问为什么,再决定。因为你没有在做专业判断,你在服从权力。
如果AI修改之后,你无法再向别人解释「我为什么这样写」——那30%已经被悄悄替换了。
而那70%还在你的脑子里,但你和它的连接已经被切断了。
专业判断的本质,是隐性知识的结晶。AI触及不到那个世界。
权威的本质,是来自理解的权力。AI有技术能力,但没有认识论意义上的权威——权威不是「能答对」,而是「知道自己在答什么」。
边界问题,本质上是权力问题的伪装。我们讨论「AI能改什么」,但真正的问题是「谁有权决定AI能改什么」。
-
-
-
你抗拒的,可能不只是一次修改。而是一种权威的来源正在被悄悄替换:从「懂行的人」变成「统计模式」。