
AI的出现,让许多白领岗位岌岌可危。过去的技术变革主要冲击蓝领工作,而AI则不同——根据各路专家的估计,它将在不同程度上取代白领的岗位。尽管看法各异,一个较为流行的观点是:从中长期看,AI至少能替代一半的白领,这足以让很多人对未来充满不安。其中有一类白领是文字工作者,他们的产出基本上体现为文字作品——各种文章、报告、论文、著作等等(你我或许也属于其中)。对于文字工作者而言,“如何才能不被AI取代”的问题,就转化为“如何在写作这件事上胜过甚至碾压AI”。
这听起来似乎难如登天。毕竟,我们千辛万苦才能写出一篇文章,AI只需几秒或几分钟就能生成一篇,而且往往文采斐然。想要在这一点上超越AI,仿佛痴人说梦。
经过一段时间的思考,我认为希望仍在。我们战胜AI的一个办法,简单来说就是:利用AI,站在AI的肩膀上。牛顿说过,他之所以看得更远,是因为站在巨人的肩膀上。同样,如果我们能站到AI的肩膀上,让AI为我所用,就能胜过AI。
具体怎么做呢?当文字工作者研究某个问题、需要进行写作时,可以先与AI对话,或者说干脆就让AI先写。但AI生成的文本,只应作为我们的参考。这样一来,我们的文章在理论上就能比AI生成的文本更优、更强、更好。通过这种方式,我们便能在AI面前保持竞争力,确保自己不会被取代。下面,我说说具体如何操作。
第一步:对AI生成的内容进行辨析。
AI生成的内容并不可靠。目前的技术还无法避免AI产生“幻觉”——这些错误可能出现在不起眼的地方。AI生成的文本中,或许有百分之一是幻觉。或许很多人认为,这是可以接受的。很多时候,“差不多就行”是行不通的:哪怕只有一两个严重错误,整个结果就变得不可接受。俗话说,一颗老鼠屎坏了一锅汤。我们必须能够检验、判断、甄别AI生成的内容。
具体而言,可以通过交叉验证来核实信息:使用不同的AI工具相互印证,或要求AI提供信息来源,再对相关出处进行核查。只有拥有了这种判断能力,我们才能去伪存真,对信息进行筛选,保留可靠的信息。做到这一步,我们就已经比AI更进一步,获得了不可替代性。
当然,我们不能百分之百地甄别信息:有些事实陈述我们始终无法确认真伪,有些观点是否可取也缺乏公开、普遍适用的评判标准,最终只能依靠我们自己的判断。一个人的判断力高低,直接决定了其决策质量的高低。因此,在AI时代,培养判断力至关重要。值得注意的是,判断力强的人往往说不清楚自己为何能够正确地判断某个信息或观点是可信、可取的——这几乎是一种直觉,难以用理性完全表达。这种判断力,有点像艺术家的灵感,也像学习语言时的语感,似乎不可捉摸。不过,这种近似于直觉的判断力,也是可以培养的。判断力的培养,主要是通过实践来进行的。实际上,我们一直以来就在进行这方面的实践。在人生规划中,自己要做什么、不做什么,尤其是在他人给我们各种各样的建议的时候,就需要自己来作出判断。回想我十多年前刚参加工作的时候,我的导师Rolf Stober有一次来北京,他就告诫我一定要有自己判断,不要“左看右看(links und rechts gucken)”,偏离了自己选定的方向。尤其是在自己作出的判断被证明是错误的情况下,就尤其要总结教训,下一次避免犯同样的错误,以此来提升自己的判断力。
第二步:将AI生成内容中的可靠部分,与自己的已有知识体系相结合。
在第一步的基础上,我们要把AI生成的可信内容,进行消化吸收,转化为自己的认知,并将其与自己已有的知识体系进行融合。每个人都有自己知识体系,我们获得新知识的时候,都要对已有的知识体系进行调整。如果新知识填补了我们之前的空白,则我们的知识体系就更丰富了。有时候,新知识可能就是进一步补充了自己的已有知识,从而使得自己的某一问题的理解更加全面、深刻。当然,新知识也可以证明自己以前对某一个问题的认识是错误的,那么,就应当用新知识来取代旧知识。
那么,这方面可以如何做呢?在此我举一个自己的和好友H君的例子。我非常认同苏格拉底的这句话:“没有反思的人生是不值得过的。”后来偶然看到一个这样的说法:把自己的体验写下来,相当于活了两遍——进行写作的时候,相当于再次体验了一遍自己的生活。后来,我又接触到了关于一个说法:人和人的生命密度是不一样的。通过写作反思者,其体验更加深刻透彻,因此生命密度更大。相反,不善于反思者,每天过得浑浑噩噩,其生命密度的很低的。就这一点而言,我后来了解到的这两个说法,就加深了我对反思的重要性的理解。我后来用这个认识来指导自己的生活,通过把自己的经历和感想记录下来,持续对自己的生活进行反思。
有一次,我和H君参观智利的一个博物馆,看到一些来自印加文明的被献祭者的表情平和的干尸。我们就此了解到,印加文明中活人献祭的技术高度发达,能够让被献祭者安宁地离世,因此死后保持平静的面部表情。我们就讨论,这种技术发达、精神落后的文明是否还称得上是文明。H君认同雅斯贝尔斯的文明概念,“文明”标准是精神性的,而非仅仅是物质成就。如此一来,这些面部表情平静的干尸,就为H君对文明的理解添加了一个生动的例证——估计这些被献祭者生前怎么也想不到,它们死后几百年还会这样发挥一点作用。
把AI生成的内容中的可信、可取部分纳入自己的知识体系之后,我们再经过推理论证,形成自己的观点和看法,并用自己的话来表达出来,就写成了我们自己的作品。这样一来,AI提供的精华与我们个人的知识积累相结合起来。这样产生的作品既保留了AI生成内容中的有效信息,又融入了我们独有见解,构成了有个人印记的新认识。它的价值,远高于AI直接生成的内容。
需要特别说明的是:这种使用AI的方式不存在伦理问题。如果只是把AI生成的内容简单剪裁、保留可靠部分,然后当作自己的作品发布,那确实违反伦理——因为内容本质上并非出自我们自己,AI生成的内容没有“入脑入心”,没有经历内化的过程。从事这种剪刀加浆糊的工作,实际上就只进行了信息搬运而已。但如果我们吸收、内化AI生成内容中的可靠部分,并将其与自己已有的知识(包括个人经验与情感)相结合,在此基础上进一步加工、创造,则最终出现的作品就是我们自己的成果。我们可以把这个过程和一个工厂的生产进行类比。如果一个工厂只是把买来的原料进行包装,贴上自己的标签,则算不上是进行了生产。相反,采购原料、再加入其他原料、最终生产出全新产品的过程就构成了真正的生产。我们如此来使用AI,也符合培根的主张。他说:“我们不应该像蚂蚁,单只收集;也不应该像蜘蛛,只从自己肚中抽丝;而应像蜜蜂,既采集,又整理,这样才能酿出香甜的蜂蜜来。”我们对AI提供的信息进行甄别、内化,将其与我们已有的知识相结合,这就像是蜜蜂酿蜜一样。如此使用AI,还有一个重大好处:将AI生成的内容加以甄别,把可靠的部分内化于心,我们就能够不断完善自己的知识体系。
如果个人能够以这种方式驾驭AI、利用AI,那么他的生产力将大大提高;相反,如果不利用AI,只是继续沿用原来的方法,则会被能够利用AI者“秒杀”。如此看来,白领群体之中将会发生分化:一部分人会成为能够利用AI的“超级个体”,而不会利用AI者将被淘汰。这一分化将对社会产生深远的影响。
回到最初的问题:文字工作者如何才能不被AI取代?答案并非与AI比速度、拼辞藻,而是让AI成为自己的工具,取其精华,将其融入自己的知识体系。当我们站上AI的肩膀,看到的将是更远的风景。愿每一位文字工作者,都能在这场变革中成为AI无法替代的“超级个体”。
夜雨聆风