这是AI写的吗?当AI变成日常工具
人类与AI协作的时代到来,但发生错误时,谁该负责?

在美国圣地亚哥,有位高中教师把学生的初始评量(initial assessment)交给ChatGPT处理,几天之内就能填写完毕。在新罕布什尔州,一名中学生用生成式人工智能(AI)工具去除数码相片中同班同学的衣服,让该小区手忙脚乱地提出应对措施。在瑞典,一家支付公司夸口,自家的AI客服系统能够负担的工作量相当于700人,但后来执行总裁承认,自家公司过度依赖AI,即刻恢复人工服务。
现在随处可见的AI其实是一种计算机系统,以大量的数据库训练后,能够预测出最有可能即将出现的像素或是文字。ChatGPT问世三年后的现在,AI已经从浏览器上的创新工具,转变成一种在背景运作的基础设施。它是医护人员的耳目、高阶主管沉默的伙伴,也是教学评量标准中没有署名的共同作者。美国大学理事会(The College Board)的报告指出,全美有84%的高中生会使用AI写作业。对于公司老板和董事会来说,AI提供的廉价劳动力令人难以抗拒,美国科技顾问公司顾能(Gartner)指出,去年各大机构在AI上的投资高达1兆8000亿美元。然而,这也让环境付出了代价:光是一家AI数据中心,其用电量就相当于10万户家庭,现在还有更大的数据中心正在建设中。事实上,云端运算也为环境带来沉重的负担。
大众经常把AI的出现描述成人类与机器之战,可是这种看法并没有掌握到重点。现在实际的状况是,人类与AI协作时,经常面临预算紧绷、依循的规章惯例有瑕疵,或输入给AI的数据不完善等问题。现今各公司竞相发展越来越精致的AI模型,渴望AI能够拥有媲美人类的智慧,但是这项科技真正带来最大的冲击,是在日常应用层面。临床医生看诊时,可以把记录病情这类繁琐的工作交给AI,自己便能专心看着病人,而不是分心于病床边的仪器屏幕。客服中心使用AI之后,在凌晨3点钟能以35种语言应答,而不必聘请许多精通各种语言的夜班员工。
不过风险在于,AI带来的危害要比优势更早出现。深度造假(deepfake)把AI变成个人的武器:一段造假的影片能够毁坏声誉,但要很久之后才有可能证明影片是假的。AI制造的幻觉,可能只是学校作业中的一个小瑕疵,也可能是临床记录中,会造成危害的标注。
就算不是刻意要造成伤害,这种人机协作也改变了人类判断的方式。人们误以为AI给出的答案是经过深思熟虑,这个答案其实未经查证。与人类协作的AI,重新分配了工作内容和责任。人们购买了AI的协助,但实情是AI还需要人类的监督。工作速度的确加快了,但是我们判断AI系统提出的建议是否可信的次数也随之增加。
后续的两篇文章追踪了各重要领域中的转变,包括医院在医疗现代化的同时如何尽力维持医疗质量,以及在媒体社群上,造假影片导致了「造谣一张嘴、辟谣跑断腿」。还有人们在工作中使用AI工具,有时候是为了增加工作速度,有时候则是为了把责任推给AI。当一项科技的优点很容易说明、缺点又很容易否认时,一旦发生了错误,谁要负起责任呢?
AI工作经验谈

夏普(Christopher Sharp),美国加州史丹佛大学医学中心的医学信息主任。|贾格(Anje Jager)
我是执业医生,是位于第一线的基层医疗医生,也是医院的医学信息主任。我得确保医生在照顾患者时,使用的是正确的AI工具。其中一种工具称为ChatEHR,EHR是电子健康记录(electronic health record)。我可以在这个聊天接口说:「我想知道这个人某方面的医疗状况,你可以汇整给我吗?」ChatEHR便能在几分钟之内完成几小时的工作。我们也会使用听写记录AI,记录医生和患者之间的对话,并且整理成医疗摘要。本医院的医生认为这种方式能够降低心力消耗,让工作的整体感受变得更愉快。
我记得有一次,一位患者告诉我,她的姊姊去世了。对我来说,当时重要的事情不是打字记录,而是看着她并且给予支持。在对话当中,她说明了家族病史的重要细节,这时我不用把手伸向键盘以留下记录,因为AI都录下来了。
读到AI的记录摘要时,我感到非常震惊:尽管看诊时我和患者之间有强烈的情绪连结,报告中却只有提到患者的姊姊去世了,以及患者本身的健康状况。这个例子说明了AI如何妥善完成AI该做的工作,我也好好完成了人类该做的事情。
夜雨聆风