声明:本公众号以分享市场信息,探讨经济相关知识为原则,仅与广大投资者分享交流,不构成投资建议。资本市场有风险,投资需谨慎。
本文来源于经济学人2026年5月2日刊,56页,原文标题BARTLEBY- The danger of cognitive surrender(巴托比——认知投降的危险),文中观点仅代表《经济学人》一家之言,读者们可舍短取长。正文可能有删改,使用AI工具翻译及配图配文
导读:管理者应引导员工进行“认知卸载”(委托重复性任务给AI),但警惕“认知缴械”(因依赖而放弃独立判断)。研究表明,AI出错时,过度信赖工具会导致更差决策。企业可雇佣高认知需求者、设计反馈机制、划定“无AI时段”,训练员工在利用AI效能的同时保持审视与质疑,避免组织思考能力被系统性削弱。
管理者应在多大程度上让AI代劳思考?
计算器并未让所有人都变成数盲。GPS导航系统让驾驶变得更轻松。在任何关于人工智能认知影响的讨论中,这两项早期技术都很有可能被提及。每一项都是切入两大问题的有用起点:AI会如何改变人们的思维方式?管理者是否应就此采取应对措施?
使用计算器和GPS设备是"认知卸载"的实例——即有意将特定任务委托给技术。在这两种情况下,这样做都是值得的。计算器能提升学生的数学表现,有助于培养解决问题的能力和自信心。GPS意味着驾驶员无需再靠边停车、手忙脚乱地翻看地图。完全迷路变得更难,避开严重拥堵变得更容易。
但代价也是有的。在2019年的一篇论文中,路易斯安那大学拉法叶分校的马克·拉库尔及其合著者故意将计算器编程为向一组本科生给出某些问题的错误答案。总体而言,他们发现,对于存在轻微偏差的计算结果,几乎毫无怀疑。即使答案明显荒谬,一些人似乎也毫不质疑地予以接受。
使用GPS导航设备同样会削弱人们独立思考的能力。哈佛医学院的路易莎·达赫马尼与麦吉尔大学的薇罗妮克·博博特进行的一项研究发现,驾驶员终身使用GPS的次数越多,其空间记忆力就越差。其他研究表明,与使用实体地图的行人相比,用手机导航的行人选择的路线更长、停顿也更多。
类似模式在网络搜索中同样可见。用互联网查找信息显然高效,但也存在权衡取舍。"谷歌效应"指的是一项研究发现,人们对那些预期能在网上找到的信息记忆效果更差。
人工智能令这些权衡大幅加剧。将特定任务交给模型处理往往是有道理的:它们在许多方面远胜人类。但AI的能力范围,加上便捷的对话界面和具有魅惑力的自信人格,与其说是让人委托任务,不如说更易引向彻底缴械投降。由此便有了"认知缴械"一词,由宾夕法尼亚大学沃顿商学院的史蒂文·肖在与同事吉迪恩·纳夫近期合著的一篇论文中提出。
肖和纳夫要求志愿者在AI辅助下回答高难度问题,并像拉库尔的计算器实验那样,随机在机器的回答中引入错误。当模型给出准确答案时,使用它的人表现优于依靠自身脑力的对照组。当AI给出错误答案时,使用它的人比对照组表现要差得多。换言之,人们停止了独立思考。
当前,老板们更关注让员工用上AI,而非纠结于AI对他们思维方式的影响。但大多数雇主同样看重批判性思维:一来模型仍容易出现令人难堪的错误,二来新颖的情况需要熟练的真人介入。因此,值得一问的是,管理者能做些什么来鼓励认知上的抵抗力。
他们可以刻意雇佣那些乐于思考的员工。肖表示,具有高"认知需求"的人(没错,亲爱的读者,说的就是您),在一定程度上——尽管并非完全——可免于认知缴械的风险。
激励与反馈也能有所帮助。他论文中的一个实验引入了一种机制:答对给予金钱奖励,同时在测试过程中即时告知参与者某道题的回答是否正确。这些方法鼓励被灌输了错误答案的AI使用者更多地推翻模型的意见(尽管他们的表现仍逊于依靠自己判断的人)。
设计一些远离AI的时段或许也有其价值。近期由欧洲工商管理学院的斯特凡诺斯·普利迪斯及其合著者进行的另一项研究,招募了200多名国际象棋社团的学生,在一个AI辅助平台上进行训练。其中一些学生仅在有限数量的特定时刻自动获得AI提示;另一些学生则可随时点击按钮获取建议。那些可按需获取帮助的学生,其表现提升幅度不及无法自主选择何时获得帮助的学生的一半。卸载是可以的。放弃则另当别论。
夜雨聆风