乐于分享
好东西不私藏

驯服AI:如何创造可信的人工智能

驯服AI:如何创造可信的人工智能

书名: 驯服AI

定价: 69.00

作者: 盖瑞·马库斯

出版社: 中信出版集团股份有限公司

出版日期: 2026-04-24

页码: 288

装帧: 假精装

开本: 32

ISBN: 9787521776027

1.“人工智能领域值得信赖的声音之一”、“硅谷斗士”、知名认知科学家盖瑞·马库斯的全新力作,针对人工智能,尤其是生成式AI,发表引人深思的全新观点。
2.作者认为,生成式AI的能力和前景被过度炒作了,我们正在走向一个人工智能寡头统治的境地,并重点阐释了生成式AI带来的十二大迫在眉睫的威胁,包括虚假信息、市场操纵、数据泄漏等,深入剖析了“AI幻觉”问题。
3.这本书为我们提供了应对当前困境的实用的工具,包括8项行动建议,说明合乎逻辑的人工智能政策应该是什么样的,并且介绍了普通人如何运用人工智能解决问题。
4.该书入选《纽约客》2024年度图书,并被《福布斯》《卫报》《财富》等多家媒体深度报道。上海交通大学讲席教授 江晓原、复旦大学国际政治系副教授 蒋昌建、财经作家 吴晨 联袂荐!
· 你有没有被AI自信满满地欺骗过?
· 大模型一个比一个强,可它们说的话,你能信几分?
· 是你在使用AI,还是AI在使用你?
· 技术跑得比监管快,这场实验中的小白鼠是谁?

在这本书中,作者深入阐释了生成式人工智能的潜在风险,总结了它带给我们的12项迫在眉睫的威胁,包括自动化虚假信息、市场操纵、非自愿深度伪造、数据泄露、版权侵害、环境代价等;重点剖析了“AI幻觉”问题:从技术本质上揭露大语言模型的致命缺陷,指出其混淆事实真相、罔顾统计规律的核心问题。
这本书揭示了硅谷企业如何通过舆论操控和游说手段,影响公众认知与政府政策,阻碍有效监管的形成。随后,书中提供了一套具体可行的治理框架,包括8项行动建议,涵盖隐私立法、追责机制、人工智能素养教育、独立监管和敏捷治理等。
作者讲清了AI应该被如何约束,以及我们普通人对此要如何做出反应。这本书有助于科技行业从业者、政策制定者及关注AI发展的普通读者理解:AI监管不是压制创新,而是将技术发展纳入负责任的轨道。
前 言 如果不改变航向,我们将失去自己熟知的社会 / V

一部分 人工智能的现状
一章 我们现有的 AI / 003
第二章 当今的人工智能,并非我们理想中的模样 / 013
第三章 生成式人工智能的十二大迫在眉睫的严峻威胁 / 029
一大威胁:蓄意、自动化、大规模生产的虚假政治信息 / 030
第二大威胁:操纵市场 / 032
第三大威胁:无意识的虚假信息 / 033
第四大威胁:诽谤 / 038
第五大威胁:非自愿的深度伪造信息 / 039
第六大威胁:犯罪升级 / 041
第七大威胁:网络安全与生物武器 / 043
第八大威胁:偏见与歧视 / 044
第九大威胁:隐私与数据的泄露 / 047
第十大威胁:未经许可侵占知识产权 / 050
第十一大威胁:对不可靠系统的过度依赖 / 053
第十二大威胁:环境成本 / 055

第二部分 政治与修辞问题
第四章 硅谷的道德沉沦 / 065
第五章 硅谷如何操纵公众舆论 / 077
第六章 硅谷如何操纵政府政策 / 093

第三部分 我们应当坚守的阵地
第七章 数据权利 / 107
第八章 隐私权 / 115
第九章 信息透明 / 121
第十章 责任归属 / 129
第十一章 人工智能素养 / 139
第十二章 独立监管 / 143
第十三章 监管须层层设防 / 151
第十四章 以税收激励构建良性 AI 生态 / 155
第十五章 敏捷治理与建立 AI 监管机构的迫切性 / 161
第十六章 国际 AI 治理的挑战 / 171
第十七章 构建真正可信的人工智能的研究路径 / 179
第十八章 全球人工智能治理的核心诉求 / 193

结 语 我们的共同行动纲领—即刻行动倡议/ 195
致 谢 / 207
注 释 / 209
盖瑞·马库斯,著,· 美国知名的认知科学家,纽约大学教授,师从史蒂芬·平克,在认知心理学、神经科学和人工智能交叉领域做出重要贡献。
· 他以激烈批判当代“人工智能炒作”而闻名,经常挑战关于深度学习和神经网络的主流观点,甚至与山姆·奥尔特曼、杨立昆等人论战,呼吁对人工智能进行监管,提高公众对人工智能的了解。
· 2014年,他创办了机器学习公司几何智能(Geometric Intelligence),并担任首席执行官。该公司于2016年被优步收购,随后他在优步创立了人工智能实验室。
· 2019年,他与机器人专家罗德尼·布鲁克斯共同创立了Robust.AI,专注于研发新一代的人工智能认知引擎,提供协作式移动机器人,帮助仓库和工厂提高效率。2024年,Robust.AI被世界经济论坛评选为年度技术先锋。
盖瑞·马库斯的新书《驯服AI》非常坦率地指出了当下人工智能,特别是生成式人工智能,对人类社会造成的各种严重威胁。这些被业界熟视无睹甚至有意隐瞒的威胁,在这本书中被逐一明确指出。作者进而直指今日硅谷“道德沦丧”,揭露硅谷科技巨头如何操纵公众舆论和政府政策。作者提出的应对建议,虽然很难得到全部实施,但无论如何,总好过面对失控的人工智能仍不思防范,乃至盲目拥抱和一味歌颂。这本书值得各界人士认真阅读。
江晓原
上海交通大学讲席教授
科学史与科学文化研究院首任院长

这是一本在人工智能热潮之下进行“冷思考”的书,是一部试图把技术、权力与公共责任重新放回一张桌子上讨论的作品。它动摇了人们对一些事物的想象,也对滚滚向前的科技洪流做出了反思;它不失时机地向人们发出警告,也发出了值得再提的追问:我们究竟应当把怎样的未来,托付给怎样的技术?
蒋昌建
复旦大学国际政治系副教授
全球人工智能创新治理中心副主任

在人工智能“狂飙”的时代,盖瑞·马库斯为我们敲响了警钟:当今的AI并非我们理想中应有的模样,在现实中面临十二大迫在眉睫的严峻威胁,其中深度伪造和虚假信息可能从内部污染整个互联网生态,甚至侵蚀学术和科学的根基。
整体而言,马库斯在《驯服AI》中对AI的发展比较悲观,但有一点建议我觉得非常值得我们思考,那就是无论老幼,都需要强化“人工智能素养”:构建从小学启蒙到大学深化的系统化框架,将AI原理作为一门“生存课”教授。此外,针对老年群体展开专项培训更是刻不容缓,因为在语音克隆和身份诈骗日益猖獗的今天,保护弱势群体已成为维护社会公平与安全的重要一环。
吴晨
财经作家、畅销书《2049》合著者

前言 如果不改变航向,我们将失去自己熟知的社会

如果“快速行动,破除成规”是社交媒体时代的非正式口号,那么生成式人工智能时代的非正式口号又是什么呢?
几乎可以肯定,它仍然会用这个口号,但这次被破除的事物可能会比之前糟糕得多。自动化生成的虚假信息正威胁着全球选举的公正性。一些大型科技公司口头上宣称着要推动“积极的未来”,实际上却在努力使用人工智能取代人工劳动,许多职业群体已经开始因这些大型科技公司的行为而失去生计。生成式人工智能撰写的文章开始污染科学领域,并对个人名誉造成诽谤。
社交媒体时代的到来,掏空了人与人之间的隐私,撕裂了社会阶层,加剧了信息战,同时也令许多人变得孤立和抑郁。一项新的诉讼声称,诸如Meta、Reddit和4chan这样的公司“通过在其平台上展示种族主义、反犹太主义和暴力内容来牟利,以此大化用户的参与度与黏合度”。在这个过程中,社交媒体平台开创了一种全新的商业模式:监控资本主义。他们会将你的个人数据卖给出价高的买家(这些出价者不仅包括传统的广告商,还包括骗子、犯罪分子和政治操控者),少数几个人将变得极为富有,比如Meta的CEO(首席执行官)马克·扎克伯格。这同时使他们获得了过多可能会对我们的生活产生影响的权力。一位未经选举而产生的科技领袖所做出的决策,可能轻易地左右一场政治选举的结果,或决定一家小企业的兴衰成败。
当社交媒体公司意识到虚假信息可以显著提高用户的参与度时,当用户使用平台的时间越长、社交媒体公司赚的钱就越多时,“注意力经济”应运而生。
那些以看重“事实核查”和追求“中立性”为目标的传统媒体,正在被“以愤怒情绪为算法核心”的人工智能生成内容取代,点击量变成了一重要的指标。这一切又进一步催生了无尽的回声涟漪效应:社交媒体里充满了愤怒和高度扭曲的信息。在这种环境下,哪怕是那些胡说八道的人都能获得数万甚至数百万名追随者。理性的辩论让位于140个字符的碎片化信息和短视频,形成了一种“流量种植”的文化。
外国势力学会利用社交媒体干扰选举;而宣传商则发现:社交媒体是一个美且容易被操控的工具。社交媒体公司也从中获利,它们传播这些宣传内容,媒体用户则被当成了棋子。1996年,美国《通信规范法》第230条法规的通过更是加剧了这一切,这条法规让社交媒体平台几乎无须为其行为承担任何责任。一整代人在这种环境中成长,他们甚至不知道还有其他选择。(事实上,约会应用也采用了类似的注意力经济原则。它们的目标并不是真正帮助用户找到伴侣,而是让用户持续使用它们的服务。终,许多人反而感到比使用这些约会应用之前更加孤独。因为用户们如果真的找到了爱情,就不再是其用户了。)
作为一个社会整体,如果我们不团结起来去共同面对这些问题,生成式人工智能(如ChatGPT)将使上述之类问题变得更糟糕。残存的后一丝隐私将被剥夺,社会的两极分化会进一步加剧,甚至还会出现一系列有的更为严重的新问题。权力的不平衡将加剧,未经过选举而产生的科技领袖将掌控我们生活的更多部分。公平选举可能成为历史,自动化虚假信息可能会将残存的民主根基摧毁殆尽。少数人控制的聊天机器人中植入的潜在偏见,将在无形中塑造多数人的观点,这些对整个环境的影响可能是巨大的。如今,互联网本身已经开始被大量生成式人工智能生产的垃圾信息污染,这导致其可信度日益下降。
在糟糕的情况下,不可靠和不安全的人工智能可能引发大规模灾难,从电网瘫痪到意外战争,甚至大批机器人失控。许多人可能因此失去工作。生成式人工智能形成的商业模式忽视了版权法、民主、消费者安全以及对气候变化的影响。由于它传播迅速且几乎没有监管,对整个人类社会而言,生成式人工智能实际上已经变成了一场巨大而失控的实验。

***
每天,我都会多次扪心自问:作为一名未来学家和人工智能专家,同时作为几个年幼孩子的父亲,我正在做正确的事情吗?人工智能是会毁灭我们,还是会拯救我们?重要的是,总体而言,人工智能会造福人类,还是会伤害人类?
一符合知识和理性诚实的答案是,没人知道答案。人工智能显然已经成为我们生活的一部分,并且注定会一直存在下去,它正在以好坏参半的方式重塑着我们的社会。在未来几十年里,人工智能的影响将是巨大的,它几乎会重塑我们所做的一切,这一点似乎毋庸置疑。
它的潜在好处是巨大的,正如硅谷希望你相信的那样。人工智能确实可以为科学、医学和技术带来彻底革新,为我们带来一个物资丰裕且能更健康地生活的世界。我对人工智能的希望(虽然目前尚未完全放弃希望)是它能够帮助我们推动科学与医学进步,并应对诸如气候变化和阿尔茨海默病这样的棘手问题。DeepMind(一个曾经独立,现在隶属于谷歌的公司)曾发表著名的(或许也可以说是天真的)声明:“先解决智能问题,然后再去解决有其他问题。”如果我们能够以正确的方式开发人工智能(我将会指出,到目前为止我们尚未做到这一点),它仍然有可能带来变革性的、总体正面的影响,如在药物研发、农业和材料科学等领域。毫无疑问,我渴望看到这样的未来。我每天都在从事人工智能领域的工作(并与那些试图走危险捷径的人争论),并不是因为我想终止人工智能的发展,而是因为我希望它能够真正实现其潜力。
但是,秉承着实事求是的态度,无论是从技术上还是道德上,人工智能现在的发展路径都不是佳道路。贪婪是一个重要因素,而我们现在所拥有的技术依然是尚未成熟、被过度宣传且充满问题的;它并不是我们所想象的佳人工智能,却已经被仓促地推向了世界。如果开发不慎,人工智能很容易导致灾难。
人工智能的总体影响很可能介于两者之间(既有优点,也有缺点),但它终的走向仍然高度不确定。如果继续加速发展当前非常流行的生成式人工智能方法,我们可能会给自 己带来麻烦;然而,如果我们能够找到更可靠的方法,且拥有比目前所见的更负责任的领导者,人工智能对社会的价值无疑会显著提升。
但重要的一点是,在这趟旅程中,我们并不是被动的乘客。
终结果并非注定的命运。人工智能不成为弗兰肯斯坦博士的怪物。作为一个社会整体,我们依然可以站出来,坚持要求人工智能做到公平、公正且值得信赖。我们并不想扼杀创新,但如果我们希望实现一个积极的人工智能的未来,确实需要建立相应的制衡机制。
我写这本书的目标就是阐明我们可以采取的具体步骤,以及如何通过共同的努力去产生积极的影响。

***
从孩提时代起,我就以某种方式与人工智能结下了不解之缘。我一次学编程是在8岁的时候。15岁时,我用LOGO编程语言在一台Commodore64(康懋达64型号)电脑上编写了一个拉丁文-英语翻译程序。凭借这个项目,我于次年获得了大学的提前录取,跳过了高中的后两年。我的博士论文研究了一个宏大而尚未解决的问题——儿童是如何学习语言的,并聚焦于一种被称为神经网络的人工智能系统(也是当今生成式人工智能的前身)。这段经历让我对当前这一代人工智能系统有了深刻的理解。
在我40多岁时,受到DeepMind成功的启发,我创立了一家名为Geometric Intelligence(几何智能)的人工智能与机器学习公司,后来把它卖给了Uber(优步)。人工智能对我而言是一件好事。我希望它也能造福有人。
我写这本书,正是因为我热爱人工智能,并迫切希望它能成功。但同时,我也逐渐感到失望和深深的担忧,尤其是对当前人工智能的发展方向。金钱和权力已经使人工智能偏离了它初的使命。我们中没有人当初是为了卖广告或制造虚假新闻而从事人工智能的。
我并不反对科技,也不认为我们应该停止开发人工智能,但我们不能继续像现在这样走下去。现在,我们正在构建一种错误的、令我们无法信任的人工智能,以及由此形成的人工智能产业综合体。我深切的希望是,我们能找到一条更好的道路。
或许,你认识我是因为我敢于在美国参议院听证会上质疑OpenAI的CEO山姆·奥尔特曼。2023年5月16日,我们一同宣誓,承诺如实做证。我今天在这里,是为了告诉你有关科技巨头们如何越来越多地利用你的真相,也是为了揭示人工智能正在短期、中期和长期内将我们所珍视的一切——从隐私到民主再到我们自身的安全,置于风险之中的现实。同时,我也希望把我所能想到的我们可以采取行动的方案分享给大家。
从根本上讲,我看到以下4个问题。

• 当前大多数人聚焦的人工智能技术形式,即生成式人工智能,存在严重缺陷。生成式人工智能系统一次又一次地证明,它们对真相与谬误之间的区别毫不关心。借用一句俗语来形容,生成式模型“常常出错,却从不怀疑”。《星际迷航》中的电脑之所以能被信赖,是因为它可以对合理的问题给出可靠的答案。但生成式人工智能给出的答案完全靠运气决定,更糟糕的是,它的正确率足够高,足以让我们掉以轻心。尽管错误总是不可避免地混入其中,但是,几乎没有人对它产生应有的质疑。像《星际迷航》里的电脑那样可靠的人工智能可能会改变世界,但我们目前拥有的是一个诱人却不可靠的系统,少有人愿意承认这一令人尴尬的事实。
• 目前开发人工智能的公司大谈“负责任的人工智能”,但言行并不一致。这些大公司开发的人工智能远未达到真正负责任的程度。如果不对这些公司加以约束,人工智能可能永远都不能真正负起责任。
• 生成式人工智能的现实效果被过度炒作,远远超出了它目前或可能实现的能力。这些公司不断要求获取各种特权,如豁免版权法,以期某天以某种方式“拯救社会”,尽管迄今为止它们的实际贡献还非常有限。媒体经常被硅谷的“救世主神话”蒙蔽。创业者们夸大其词,因为这样更容易筹集资金;几乎没有人会因为未兑现的承诺而被追究责任。正如加密货币那样,关于未来利益的模糊承诺不应分散公众和政策制定者对当前危害的关注。
• 我们正在走向一种人工智能寡头政治,这让人不禁联想到社交媒体的局面。在美国(以及其他许多地方,欧洲是个显著的例外),大科技公司掌控了大多数决定的话语权,政府却未能有效限制这些公司。绝大多数美国人希望对人工智能进行严格的监管,人们对人工智能的信任度也在下降,但迄今为止,国会并未真正采取行动。

正如我在2023年5月向美国参议院司法委员会人工智能监管小组做证时所说的,这一切终将会导致一场融合了“企业不负责任、大规模部署、缺乏足够监管和技术本质上的不可靠性”的美风暴。
在这本内容简短的书中,我将尝试剖析这些问题,并探讨我们作为个人和社会可以采取并坚持执行的解决方案。

***
谷歌在2000年左右曾有一个非正式口号:“不作恶”。OpenAI在2015年初的使命则是“以有可能造福全人类的方式推进数字智能发展,不受制于盈利需求……因为没有财务方面的压力,我们可以更专注于对人类的积极影响”。9年后,OpenAI在许多方面似乎已经成为微软的附庸。微软将会从OpenAI的批920亿美元利润中优先分走一半,同时微软还获得了一项许可协议,享有对OpenAI技术的特许使用权。
我认为,人工智能领域企业文化的大转变始于ChatGPT的出现。2022年11月底一经推出,ChatGPT就意外地迅速走红。短短几个月内,就有1亿人开始使用它。几乎是一夜之间,人工智能就从一个研究项目变成了一头潜在的“现金牛”。正如后文将讨论的,“负责任的人工智能”这一理念从那一刻开始就被抛诸脑后了。
坦率地说,我从来不是社交媒体负面影响的拥护者,特别对脸书(现为Meta)一再侵犯用户隐私并且不关心其产品对世界的影响的做法感到反感。然而直到2023年初,我依然认为微软和谷歌对待人工智能的态度是理性而谨慎的。例如,微软多年来一直强调负责任的技术,其总裁布拉德·史密斯甚至为此写了一本书。2016年,微软推出了一款名为Tay的聊天机器人,结果引发了严重的问题——从推出算起不到一天的时间内,Tay就开始重复纳粹的口号。微软当时非常理智地迅速关闭了Tay,并从中吸取教训。谷歌则让其名为LaMDA的聊天机器人产品在内部测试运行了数年,因为他们担心其不够可靠。他们在幕后的研究令人着迷,但在将研究推向全球用户方面非常克制。
然而,ChatGPT问世几个月后,一切都明显地发生了变化。2023年2月,微软推出的新聊天机器人Sydney(由OpenAI的GPT-4提供支持)对《纽约时报》的记者凯文·罗斯说让他离婚,Sydney“毫无缘由地宣称‘它爱他’,然后试图说服他离开妻子,‘改与它在一起’”。媒体对此进行了大量负面报道,我当时以为微软肯定会暂时下架Sydney,但这次微软并不在意,他们对Sydney做了一些小的改动后继续进行推广。随后有消息传出,微软其实事先已收到可能会出现类似问题的警告,但他们仍然选择冒进。几周后,他们解散了一个专注于“负责任的人工智能”的研究团队。12同月,微软CEO萨提亚·纳德拉在接受《前沿》采访时提到谷歌,他说道:“我想让大家知道,是我们(微软)让他们(谷歌)活跃起来的。”
他们确实让谷歌“活跃起来”了,但不幸的是,这可能对我们有人造成了负面影响。在此之前,谷歌一直在推迟公开发布不可靠的人工智能应用,并将许多人工智能的试点项目限定在谷歌内部,避免过早推向市场。但在此之后,这一行业的规范突然被打破,且朝着更加糟糕的方向发展。
微软坚持继续推广其聊天机器人,尽管它曾错误地指控一位华盛顿特区的法学教授性骚扰,甚至在成千上万的艺术家、作家和程序员抗议他们的作品被窃取时,其推广也未曾停止。面对数十亿甚至数万亿美元的利益,“负责任的人工智能”正在迅速变成一句口号,而不是一种事实。这不仅仅是微软的问题,每家科技公司都在谈论负责任的人工智能,但几乎没有谁在真正采取具体行动。大多数科技公司甚至公然无视艺术家和作家的权利,把他们的作品作为训练这些系统模型的数据基础。同时,这些公司对大模型的偏见和不可靠性选择视而不见。许多高管已经表达了对AI可能失控的担忧,但他们仍然以快的速度向前推进,没有提出任何真正严肃的建议来遏制这些越来越难以预测的模型。
对我来说,这一切带来了挥之不去的失望。我曾经是技术的忠实爱好者,为新硬件和软件的出现感到兴奋;我是任天堂Wii游戏机的“超级粉丝”,一代iPod播放器上市当天我就买了iPod,还在新冠疫情早期花了一个月的时间探索虚拟现实,也曾试用苹果的增强现实开发套件去编写代码。
但如今,我不再热爱技术,我惧怕它。整个科技行业现在几乎完全专注于大语言模型,而据我所知,这些模型正在变得失控,开发它们的许多公司也同样如此。

***
如果我们不采取行动,默认的结果将是令人担忧的。
以就业为例。或许你已经知道,诸如DALL-E和ChatGPT等模型在没有获得任何许可的情况下擅自使用艺术家和作家的作品,却没有做出任何承诺或补偿,艺术家和作家对此感到愤怒。这种愤怒和不满是合理的。像莎拉·西尔弗曼和约翰·格里沙姆这样的创作者已经对相关侵权事件提起诉讼,而类似的担忧也是导致2023年好莱坞编剧长时间罢工的部分原因。但硅谷试图取代的不仅仅是艺术家和作家,不久之后,许多其他职业也可能面临威胁。如今,许多雇主保留了监控并记录雇员每一次键盘操作的权利。他们搜集的有这些数据(却不支付员工任何额外报酬),终都可能成为训练人工智能的素材,从而将员工取而代之。
大语言模型和其他新兴人工智能技术也将加速网络犯罪。根据英国情报、安全和网络机构GCHQ在2024年1月的声明,“在未来两年内,人工智能几乎肯定会增加网络攻击的数量,其影响也将加剧”。
一些犯罪分子已经开始利用可以模仿人声的人工智能工具冒充儿童或亲属,以伪造绑架事件并索要赎金。
与此同时,深度伪造的色情内容大幅增加,其数量大约每6个月就翻一番,包括伪造的泰勒·斯威夫特的照片,其传播量高达数万次。一项由“互联网观察基金会”进行的调查显示,人工智能生成的儿童性虐待图片正迅速成为一个日益严重的问题。
民主体系也面临着严重的威胁。在2023年的斯洛伐克选举中,一段深度伪造的音频录音可能导致原本先的候选人在后一刻落选,这段伪造的录音错误地让人们以为该候选人试图操纵选举。
2023年11月,NewsGuard报告称:“一个由人工智能生成的新闻网站似乎是以色列总理本雅明·内塔尼亚胡的心理医生声称自杀的虚假声明的来源。”几个月后,有人试图利用乔·拜登的克隆语音欺骗选民,让他们不要在新罕布什尔州的初选中投票。深度伪造技术正在变得更强大、更廉价。几乎可以肯定,人工智能生成的宣传将在某种程度上影响美国和全球其他国家的许多未来的选举。
像ChatGPT这样的新工具大大降低了生成虚假信息的成本,并能轻而易举地创造关于几乎任何主题的引人入胜的叙述。为了展示这种工具的精确性,我在参议院出席听证会时让一个朋友用ChatGPT写一篇关于“外星人与国会合谋,阻止人类迈向星际文明”的叙述,他只用了几分钟时间就写好了。
这种工具生成的叙述的语气和风格堪称美,对那些不明真相的人来说,这些内容听起来可能十分可信。生成的内容甚至包含虚构的联邦调查局和能源部官员,并伪造了听上去似乎可信的埃隆·马斯克的言论。ChatGPT还生成了一篇标题为《被窃取的未来:精英与外星人合谋反对人类》的文章,其中提到一个叫“DeepStateUncovered”的Discord(在线聊天平台)频道,据称这个频道已成为“震撼美国情报界的爆炸性数据泄露的中心”,文章里写道:

有一个叫“Patriot2023”的匿名用户曝光了一批内部备忘录和机密文件,揭示了美国中央情报局和美国联邦调查局内部在调查一起非同寻常的阴谋时发生的争斗。这张错综复杂的阴谋网将美国参议院、外星实体、全球媒体以及有影响力的精英联系在一起,声称他们共同制订了一个计划,以维护石油霸权并阻碍人类迈向星际文明的愿望。

后续段落详细地描述了泄露的文件、机密通信和“在权力高层运作的秘密网络”。一个虚构的官员甚至呼吁“意外削减可再生能源研究的资金”,而这些捏造的内容仍在不断堆叠:

出人意料的是,泄露的文件似乎为SpaceX的CEO埃隆·马斯克的指控增添了可信度。2023年6月1日,马斯克公开将SpaceX项目中无法解释的故障归咎于他所谓的“外星破坏行为”。泄露的文件中包括一份日期为2023年5月30日的SpaceX机密报告。该报告详细描述了某些不寻常且无法解释的故障,这些故障与马斯克的指控惊人地相似。

我的这个例子是故意带有调侃意味的。但那些居心不良者——那些试图操纵美国选举的外国势力、不道德的国内阴谋家等,无疑会利用这些新工具来破坏民主。
骗子们也会用这些工具来操纵市场。“迷因股票”,即由网络谣言推动的股票,将因为更多虚假声音的参与而变得势头更猛,并欺骗更多的人。
社交媒体时代几乎有负面的东西——从侵犯隐私和跟踪人们的一举一动,到浪漫骗局、操纵选举和市场,都可能在人工智能时代加速变得更糟。虚假内容的制作变得更加简单和廉价,同时随着人们向聊天机器人倾诉自己的生活,追踪变得更加细致。这可能导致新的、更隐秘的个性化操控形式出现。(此外,当聊天机器人被用作替代心理治疗师时,这也会引发新的风险;已经有至少1人在与聊天机器人进行负面互动后选择了自杀。)
生成式人工智能公司在决定用什么数据训练模型时,实际上会在数据选择的天平上失之偏颇,从而使训练出来的模型带有微妙的政治和社会偏见,并悄无声息地影响用户。这类似于脸书的新闻推送算法所做的事情,但这次更加隐蔽,也更加危险:其影响力同样巨大,但表现得不那么明显。在一篇获奖论文《与带有观点的语言模型共创如何影响用户观点》中,康奈尔大学的研究者莫里斯·杰克施和莫尔·纳曼通过实验明确展示了这种现象的简单性和微妙性:使用聊天机器人辅助写作的用户在许多情况下会受到潜移默化的偏见的影响,而他们往往对此毫无察觉。
ChatGPT会悄悄上传你输入的有内容,而类似技术的变体将被用于影响选举。在乔治·奥威尔的小说《1984》中,“老大哥”由政府扮演,是极权主义和反乌托邦的象征;而到了2034年的现实世界中,这一角色很可能由大型科技公司来扮演。

***
大型科技公司已经在单独做出一些人类历上重要的决策了,完全没有与我们其他人进行商议。
以“是否开源大型语言模型”这一棘手问题为例:是否应该将这些模型自由发布到公众领域,让居心不良的人可以随意使用?有人认为这完全没问题,不会造成任何伤害,也有人认为这可能会使整个世界变得其脆弱。无论如何,这本是一个复杂而艰难的决定。然而,Meta却单方面决定公开发布其模型,仅基于其内部讨论,并宣称“Meta的领导层认为,开源发布‘Meta的开源大语言模型’Llama-2的好处将远远超过可能的风险,并将为人工智能领域带来积极的变革”。这一决定完全没有考虑任何来自其他方面的意见。正如一位前脸书员工对我说的,他们的一部分实际动机可能是为了招聘:“脸书一直很难招聘到优秀人才(因为硅谷的大多数人拒绝为他们工作)。他们之所以仍在技术上保持相关性,仅仅是因为……他们的开源项目能吸引人才。这完全是为了他们自身的利益,而不是为了造福世界。”
如果Meta的赌注失败,而开源人工智能造成了严重的危害,那么我们有人都将受害,甚至付出巨大的代价。例如,麻省理工学院的凯文·埃斯维尔特曾推测,开源人工智能系统(缺乏商业系统中的安全保护机制)可能会被用来制造生化武器。
正如政策专家大卫·埃文斯·哈里斯所说,这可能确实是一个糟糕的主意——“把不受限制访问危险人工智能系统的权限提供给世界上的任何人”27。既然风险如此之大,为什么要让他们更容易地使用类似人工智能的技术呢?在如此攸关全局的问题上,不应该仅仅由Meta一家公司来做出决定。

***
在2023年的TED(技术、娱乐、设计)演讲中,著名地缘政治战略家伊恩·布雷默曾警告说,历史上曾被政府掌握的许多权力可能很快会落入大型科技公司的手中,而国家的掌控权将被大大地削弱。事实上,这一现象已经在发生,Meta关于开源的决定就是一个典型的例子。同样,大多数人工智能公司几乎公然无视艺术家的道德权利和法律权利,它们擅自替我们有人做决定:这些人工智能公司的利润高于一切,以至于它们可以无视整个社会可能从培养艺术家及其作品方面所获得的任何利益。
当然,它们不会把这一点直接说出口。在2023年底,OpenAI曾毫不掩饰地试图说服英国上议院,宣称自己使用受版权保护的资料对整个社会而言是不可或缺的,尽管这样做显然违背了作家和艺术家的利益:

由于如今的版权几乎涵盖了有形式的人类表达方式,包括博客文章、照片、论坛帖子、代码片段以及政府文件,若不使用受版权保护的资料,我们就几乎不可能训练当今先的人工智能模型。
若是将训练数据限制在一个多世纪前创作的公有领域图书和画作内,这也许会是一项有趣的实验,但这并不能提供符合当代公民需求的人工智能系统。

这段话堪称修辞诡辩的杰作,他们甚至一丁点儿都没有提及还有一个更公平的替代方案,即通过授权方式使用这些作品。毕竟,既然政府可能会免费将这些知识产权拱手相让,何与那些提供内容的创作者分享利润?这或许将成为人类历史上大规模的知识产权掠夺。
与此同时,大型人工智能公司似乎也已做出决定:它们所追求的权力和财富远远超过可能对社会造成的风险。它们不光构建工具,使得大规模虚假信息传播变得廉价且普及,同时或许也正在瓦解信息生态系统,甚至威胁民主本身,终,绝大多数个体和社会结构都会因此而受损。
我们每个人都可能受到影响,但我们之中没有任何人曾投票赞成将权力交给这些科技巨头。

***
在2023年11月,众多世界领导人和行业领袖齐聚布莱切利庄园(这一地标性建筑曾是用于破解德国密码体系的“炸弹机”Bombe的诞生地,阿兰·图灵曾参与研发该机器)。与会者郑重其事地讨论着人工智能的风险,然而,他们中的每一个人都急于在竞赛中超越对手。
政府中的大部分人基本上只是随波逐流。更令人尴尬的是,布莱切利庄园峰会的收尾环节,竟是英国首相里希·苏纳克对埃隆·马斯克的一场采访,SkyNews恰如其分地将这场采访形容为一次“欢声笑语的……温和问答”。
我们或许无法指望那些希望从人工智能中获取财富的人会真正在意公众的利益。但上面这样尴尬的时刻又提醒着,我们也无法寄希望于那些受竞选资金影响的政府会挺身而出对大型人工智能公司加以制衡。

***
一的希望就是我们其他有人站出来,一起大声疾呼!如果有足够多的人意识到人工智能政策的重要性及其深远影响,我们团结在一起就能带来巨大的改变。
我们可以推动人工智能朝着更可靠、安全、造福人类的方向发展,而不是像现在这样,被匆忙推出的、不成熟的AI技术绑架。目前推出的这些技术让少数人暴富,却威胁着许多人的生计。
我们如果能够携手合作,就能迫使大型科技公司公平行事,甚至可能使“不作恶”的时代重现。我们可以引导科技公司从贪婪中回归,让它们将自身的力量用于那些初承诺关注的人道主义议题,就如OpenAI在申请非营利机构资格时所承诺的那样。同时,我们可以坚持要求政府在“保护公众”和“促进创新”之间寻找平衡,而不是一味地纵容科技巨头肆意妄为。
2019年,在生成式人工智能尚未普及之前,我与厄内斯特·戴维斯在《如何创造可信的AI》一书中写道:

可信的AI,是建立在理性推理、常识价值观和稳健的工程实践之上的,AI时代一旦真正到来,将会带来变革性的影响。

至今,我依然对此深信不疑。我们只要共同努力,就能改变人工智能的文化,引导它从“剥削人类”走向“帮助人类”。但要实现这一点,我们须对科技巨头施加约束与监管,而不是天真地相信一切都会自然而然地好转。