乐于分享
好东西不私藏

何万青:“不要直接给我答案”——拒绝被AI无痛截肢

何万青:“不要直接给我答案”——拒绝被AI无痛截肢

一、警惕“无痛截肢”:舒服是能力的死敌

最近我越来越觉得,真正危险的技术,并不是那种一眼看上去就很可怕的技术 。真正危险的,往往是那些用起来太顺手、太体贴、太“懂你”的技术 。它们不吵不闹,不逼你表态,不让你流血,甚至还会让你感到一种温柔的解脱:太好了,这一步不用我想了;太好了,这一段不用我写了;太好了,这个判断不用我来做了 。不知不觉,我们让渡了本该属于自己的那部分聪明 。

问题就在这里 。

真正危险的技术,往往不是让你疼的技术,而是让你舒服的技术 。不是让你立刻失业的技术,而是让你在仍然看似高效、体面、甚至更像“高手”的状态里,慢慢失去那些只能靠长期训练才能长出来的判断力、推理力和耐心 。

这件事叫作:无痛截肢 。我想说的是:绝不让AI对我无痛截肢 。

二、认知外包:买得到 Token,买不到手感

很多年前读Dilbert漫画书《呆伯特的未来》,留下印象的是它背后的那层冷意:科技的发展,并不会自动让人活得更轻松;很多时候,它只是悄悄抬高了 “人类无能基准线”  – 然后利用人类的无知赚钱。就像识字教育提高了一个社会的识字无能基准线,互联网提高了信息检索的无能基准线,智能手机提高了即时响应的无能基准线,今天的大模型,正在提高人的认知协作无能基准线 。

科技越进步,事情往往不是越简单,而是越分层 。能学习、能吸收、能把工具变成能力的人,会被推到更高的生产力平台;而那些没有形成新能力的人,会在 “人人都能用” 的幻觉里,越来越依赖,越来越空心 。技术当然带来了便利,但它也同步提高了门槛 。科技不是取消门槛,它只是把旧门槛拆掉,再立起一条新的 。

这也是我在前面几期 CCF TalkShow 上面表达的观点:在AI大模型显然比个体更聪明的情况下,反而对人的能力提出了更高要求 。因为今天你可以买到Token,买到模型服务,买到一个貌似无所不知的API,但你买不到判断力 。你可以买到答案,却买不到对答案的理解;你可以买到方案,却买不到对方案的取舍 。最高级的知识常常看起来是免费的,但最高级的能力从来都不免费——它仍然要你拿时间去换,拿挫折去换,拿反复修正去换——就是王阳明说的“事上磨练” 。

微软研究团队在一项关于319位知识工作者的研究(注 1)中发现:在使用生成式AI时,对AI越有信心的人,投入的批判性思考越少;对自己越有信心的人,投入的批判性思考越多 。这句话翻译成人话就是:当你越来越相信模型,你就越容易停止自己思考;而当你还保有自己的判断主权时,你才会真正把AI当成工具,而不是把自己降级成验收员 。

这件事,其实并不新鲜 。早在1983年,认知心理学家 Lisanne Bainbridge 在那篇著名的《自动化的反讽》(注 2)里就讲得很透:自动化并没有消灭人,只是把人留下来处理那些最少见、最困难、最棘手的部分 。问题在于,机器一旦接管了日常操作,人也就失去了持续练习的机会 。等到真正需要人接手时,人已经没有了“手感”,也没有了对系统的活理解 。她那句意思极狠: 自动化拿走了工作的“容易部分”,反而把“困难部分”变得更困难了。 今天看,这几乎就是很多人使用AI的精神写照 。

三、幻肢痛:专长源于肌肉属性

我喜欢把这种状态叫作“无痛截肢” 。因为它最可怕的地方正在于无痛 。你不会在第一天就觉得自己变笨 。你甚至会觉得自己前所未有地高效 。邮件回得更快,代码写得更多,文案起得更顺,报告也更像那么回事 。可是真正被切掉的,是那些本来应该在艰难之中慢慢长出来的东西:对概念的咀嚼,对歧义的敏感,对反例的警觉,对自己推理链条的把握 。它们不是一次性下载的模块,而是像肌肉一样,靠长期负荷生长 。

切掉的时候没有痛感,失去之后却会有“幻肢感”——你还以为那是你的能力,其实你只是熟练地调用了外部义肢 。这就像真正的截肢者会有幻肢感一样:你明明已经失去了那条能力回路,却仍然误以为那是“我会的” 。其实你不是会了,你只是好像会调用 。

女儿在国外的计算神经科学中心学习,我问她平时怎样用大模型 。她回答:“我告诉它不要直接给我答案。” 。后来她接着解释,就是把GPT 当作一个 mentor,跟自己一起学习和探索,发现问题的答案 。“不要直接给我答案”并不意味着拒绝AI,而是重新规定关系:

你不是替我思考,你是逼我思考;你不是替我完成,你是陪我穿过困难;你不是拐杖,而是陪练 。甚至在必要时成为我的导师,但前提是——你不能把我的能力带走 。

我很喜欢这句话 。真正会用AI的人,不会一上来就让它替自己完成;真正想保住自己大脑的人,会先重新规定关系 。

因为所有真正值钱的能力,几乎都带一点“肌肉属性” 。它们不是下载的,是训练出来的 。心理学家 Anders Ericsson对 “刻意练习” (注3)的研究早就说明,

专长不是靠“做得多”自然长出来的,而是靠长期、费力、带反馈、带纠错的训练长出来的 。仅仅重复,并不会自动提升;日常工作中的熟练,也常常只是停留在一个舒适的平台上 。没有反馈的重复,不是成长,只是熟练地原地踏步 。

四、人才空心:效率掩盖下的能力坍塌

我并不反对在工作中大量使用AI 。事实上,AI确实能带来显著效率提升,以至于即便意识到团队人手不够,我的第一反应是让大家再 “压榨压榨AI”,而不是像以前那样,去遍历找简历、面试、支持新人落地的流程 。可是,我们也许要把问题问得更深一层:效率提升之后,人的能力结构发生了什么? 如果 AI 的主要价值在于把新手快速拉到一个不那么难看的平均水平,那它当然是伟大的工具;但如果一个行业从此越来越少的人经历真正艰难的学习曲线,越来越少的人有机会在低效、笨拙、反复失败中长出判断力,那么几年之后,这个行业会不会出现“人才空心化”? 到那时,我们拥有的是一代会调用模型的人,还是一代真正理解问题的人?

在前面一期的CCF TalkShow上,我和RWKV的罗璇和谭校长谈龙虾和Vibe coding,晓生说,他的那个曾经的 ”老程序员群“ 里拥有了 “token自由” 的前CTOVPCXO们,仿佛打了鸡血,老程序员们的“第二春”又来了,熬夜驱动着自己养的一群龙虾,纵横捭阖爽到飞起 。我们感叹 “35岁诅咒” 回旋镖来的真快,“39岁”的老程序员现世报成了香饽饽 。可是,这些人当年难道不是从实习生、校招生的小鲜肉,一步步打怪升级才成为今天能干的大叔的吗?

如果AI 的主要作用,是把新手快速拉到一个不太难看的平均水平,那当然很好;但如果一个行业从此越来越少的人经历笨拙、迟缓、反复出错、硬着头皮啃问题的阶段,那么几年之后,这个行业会发生什么? 它会不会出现一种很隐蔽的人才空心化:表面上人人都在用最先进的工具,实际上越来越少的人真正知道工具是怎么失灵的,越来越少的人能在模型错得很像对的时候,稳稳地说一句:不,这里有问题 。

这几乎是AI时代所有认知外包的缩影 。你写完了文章,却不一定真的更会写;你交付了代码,却不一定真的更懂系统;你完成了研究综述,却不一定真的形成了自己的问题意识 。前一阵子,一个博一的实习生,交给自己的龙虾一个“帮我读10篇论文,给个深度分析”的命令,回来看烧掉了200元token,龙虾”一事无成、理直气壮”,心疼坏了——而更多的时候:你到达了结果,但没有获得通往结果的能力 。

五、建设性冲突:重新规定你与 AI 的关系

所以,问题从来不只是“用不用AI”,而是“你和AI建立了什么关系” 。

如果你把它当拐杖,它会放大你的依赖 ; 如果你把它当镜子,它会放大你的自知 ; 如果你把它当陪练,它会放大你的成长 。

我和自己的Gemini大模型搭子搭伙过日子,蜜月期很快过去,逐渐发现,要让它更聪明,靠的不是没有摩擦的协作,而是建设性冲突 。你要故意让它不要那么顺着你 。让它给反例,让它挑战你的前提,让它不要直接给结论,而是先列出问题空间;让它告诉你哪几步推理最脆弱,哪几个假设最值得怀疑 。2025 年的一项研究发现,在AI辅助工作中加入一些简短的“provocations”——也就是带一点质疑意味、会提示替代方案的小刺激——能够显著诱发更多批判性与元认知思考 。很多时候,人并不是不会想,而是太容易在顺滑里停止思考 。

所以我越来越相信:真正好的AI,不应该只是帮我更快地得到答案,而应该帮我更诚实地面对自己的无知;不应该只是替我遮住困难,而应该逼我穿过困难;不应该只是让我像个更熟练的操作者,而应该让我成为一个更强的判断者 。

AI真正危险的地方,不是把人的工作拿走,而是把人的成长拿走 。

而成长这件事,从来不是靠知道答案完成的 。成长是你在问题里待过,在复杂性里挣扎过,在反例前停下来过,在错误里修正过 。真正有分量的能力,都带一点手工艺属性:不能完全外包,不能只看结果,不能跳过过程 。

如果有一天,必须在“更快得到答案”和“更慢长出能力”之间做选择 ,我希望自己还有勇气,对着那个越来越聪明的系统,说出一句并不讨巧的话 :

不要直接给我答案。

先让我参与,先让我思考,先让我长出配得上答案的能力 。 我可以用AI 。但我绝不让AI,对我做无痛截肢 。

注1: https://www.microsoft.com/en-us/research/publication/the-impact-of-generative-ai-on-critical-thinking-self-reported-reductions-in-cognitive-effort-and-confidence-effects-from-a-survey-of-knowledge-workers/

注2: https://ckrybus.com/static/papers/Bainbridge_1983_Automatica.pdf

注3:https://graphics8.nytimes.com/images/blogs/freakonomics/pdf/DeliberatePractice(PsychologicalReview).pdf

– END –

END

【注:题图和部分图片使用AI生成】

免责声明:

本文所涉及的案例和观点仅作为学术探讨与研究之用,旨在推动数字经济与实体产业融合的理论与实践探索,不构成任何投资建议或决策依据。文中的信息、意见和推测仅反映报告出具日的判断,可能随时更改,且并未考虑任何特定投资者的财务状况和需求。过往表现不应作为未来结果的预示或保证。投资者应进行独立评估,并咨询专业的法律、财务、税务顾问。

任何依据或使用本文所造成的一切后果,相关机构及作者均不承担任何法律责任。

END

🔔 本文由元宇宙数字资产NFT研究发展中心(ID: MetaCentra)转载发布,本文为学术研究,仅代表作者个人观点,不代表中心立场。聚焦数字经济前沿,洞见数据要素创新。欢迎关注,一起拥抱数字未来!

如果你喜欢我的文章,请给我一个赞👍🏻,一个转发在看,一个关注👇🏻👇🏻👇🏻

往期推荐

首期“尚工”行动数字资产架构师(高级)能力提升培训-文化艺术行业定制班将于3月开班

公告 | “第十二届中国艺术金融年会”暨“第五届国际艺术金融发展论坛”

法国ESC亚眠高等商学院Global DBA

元宇宙数字资产(NFT)研究发展中心以构建文化数字资产生态体系为核心任务,致力于推动文化艺术与数字科技、金融机制深度融合,研究与应用方向包括:元宇宙语境下的数字场景建构与数字资产架构、文化艺术行业的数字化转型与数据资产确权路径、数字版权资产的入表机制与规范性流通、跨境文化数据路径与艺术金融模型设计、数字艺术金融的科技平台建设与媒体融合传播实践。

元宇宙数字资产(NFT)研究发展中心倡导“价值即数据,文化即资产”的理念,通过研究、试点、标准制定、平台搭建等多维路径,助力文化产业实现价值重构与国际化发展,并持续推动构建开放共享的学术网络与产业联盟。

李可染画院是经文化部管理部门及国家事业单位管理局登记备案的国家级画院。