乐于分享
好东西不私藏

当AI成为“拐杖”:组织正在悄悄失去的三种能力

当AI成为“拐杖”:组织正在悄悄失去的三种能力

最近读到《哈佛商业评论》的一篇文章,里面提到一个引人深思的观点:AI在提升效率的同时,可能正在悄悄消解组织最宝贵的“DNA”。过度依赖AI的组织,正在丧失企业自身的核心能力。

眼下AI确实风头正劲,从写报告到做决策,从客服到战略分析,似乎没有它插不上手的地方。很多组织把AI当作“力量倍增器”,恨不得所有流程都跑一遍模型。但问题也随之而来:当员工习惯了让AI代劳,自己的判断力会不会慢慢萎缩?当规则被写进算法,那些本该被讨论、被质疑的道德选择去哪儿了?当人和人之间的协作变成了各自面对屏幕,团队的信任和默契还能剩下多少?

这篇文章给出的答案是:会,而且后果可能比想象中严重。它不会让组织一夜之间崩溃,而是像温水煮青蛙一样,悄悄侵蚀掉那些最不容易被量化、却最核心的竞争力。

01 员工的思维正在“退化”

你有没有这种感觉?现在遇到问题,第一反应是问AI,而不是自己先想一想。文章里举了一个例子:一家叫克雷斯顿的电信公司,中层管理者越来越依赖AI生成战略方案,但当你问他们“为什么这个方案更好”时,他们说不清楚。结果就是,他们变成了算法的执行者,而不是思考者。

这家公司的做法很有意思:设立AI战略会议”,让团队先凭自己的判断力和经验处理问题,记录下推理过程之后,才允许参考AI工具。AI就像一个好用的拐杖,但如果你一直拄着它,自己的腿就会越来越没劲儿。组织里那些靠师徒传承、靠实践中摸爬滚打积累起来的“隐性知识”,一旦被AI替代,就很难再找回来。

02 规则和道德选择被“埋”进了算法

每个组织内部都有一些不成文的规则:谁获得资源、谁算成功、谁的意见被重视这些规则本来应该是可见、可辩论、可修正的。AI来了之后,很多带有主观判断的决策被嵌入到技术系统里,自动运行,速度快、规模大,但背后的道德考量却藏在了模型和分数后面。

文章里提到一家美国地区银行,叫皮埃蒙特。他们的信贷委员会本来会讨论贷款标准是否合理,但后来越来越依赖AI的建议。发现问题后,他们增设了季度“信贷标准圆桌会议”,专门讨论一个问题:“我们的标准还正确吗?”——这个原本没有专门场所去讨论的问题,现在被制度化了。同时,他们还搞了一套“学徒制”,让初级分析师轮岗到委员会,学习如何质疑分数,而不是只会看分数。

在我看来,这其实是在保护组织最珍贵的东西:那种通过层级结构、通过人与人之间的辩论和问责积累起来的专业判断力。AI可以帮你做决定,但它不会为决定负责,也不会在规则过时的时候主动提醒你。

03 人和人之间的社会联系正在变淡

公司不只是规则和流程的集合,更是一个由信任、共同目标和相互理解构成的社会网络。AI正在从两个方面削弱这个网络:一方面,它取代了原本需要人们一起讨论、争执、协商的过程,每个人都对着自己的AI工具找答案,协作变成了孤岛;另一方面,当决策来自一个不透明的算法时,经理、领导这些传统权威的可信度也在下降——员工搞不清楚到底谁说了算、凭什么这么决定。

文章里有个英国广告公司的案例,叫布莱特维尤。他们的AI工具把广告活动优化得挺好,数据指标也漂亮,但客户却在流失。一问才知道,客户说“感觉像是在和自动售货机合作”,团队在客户面前拿不出有说服力的创意判断。后来这家公司做了一个决定:禁止在面向客户的演示中使用AI生成的内容,团队必须自己写原创的战略叙述。他们还设置了“战略负责人”这个角色,专门挑战AI的输出,倡导算法可能忽略的创意方向。

这让我想到一个道理:信任和默契,是在人与人真实的互动中长出来的。AI可以辅助,但不能替代那种你来我往的辩论、妥协和共同担责。

写在最后

说实话,我并不反对AI也认同AI带来的高效便捷。文章最后的结论我特别认同:AI可以提升组织绩效,前提是你要清楚它的局限性。它无法通过经验积累专业知识,无法承担道德责任,也无法建立信任、勇气或共同目标——这些仍然是人类独有的。

我的感受是,未来真正有竞争力的组织,不是那些把AI用得最“溜”的,而是那些在用AI的同时,清醒地保护并强化那些算法永远取代不了的人类能力。就像那家电信公司、那家银行和那家广告公司做的——刻意制造一些“摩擦点”,虽然慢一点,但保住了组织最核心的判断力、问责机制和人际信任。这或许就是我们这个时代,管理者最需要花心思的地方。