AI安全就是人类恶意的放大器
最近集中看了几个关于AI发展安全讨论的视频、访谈。感觉很是奇怪、诡异,就是说,几乎在没有任何预兆、苗头的情况下,刻意歪曲事实,线性外推结论。认为AI在3-10年内会导致人类大规模失业,甚至会对人类生存产生重大威胁。
从人类的负面偏见、悲观思维角度来说,这种想法是有存在合理性的。之前其他事情,如果有这种看法,大多所谓“理中客”们会认为这是阴谋论。而在AI这件事上,人们反而认为是合理的,让我看起来大为费解。
AI确实在某些公司引起了一些大规模裁员,具体新闻我就不列了,各位可以自己找找看,主要就是一些互联网公司。可是问题在于,一家大型互联网公司,假设从10年前的2万人,增长到今天的10万人,然后宣布裁员8000人,大家就觉得完了,世界末日了,AI要颠覆人类了。。。就像北京的房价从1万涨到10万,然后跌到8万,大家觉得房价完蛋了,显然是太情绪化了吧。当然,也有的公司宣布开发人员裁员50%,然后又有人觉得这就是证据啊,这就是AI发展的必然结果啊。
我认为这里存在两个事情。
1、借机裁员
唐朝在讲股市涨跌的时候有一段话,有点儿意思:
估值高了,就会“借故”下跌,至于这个“故”究竟是什么,千奇百怪,防不胜防,所以索性不防。
估值低了,就会“借故”上涨。至于这个“故”究竟是什么,千奇百怪,猜不胜猜,所以索性不猜。
这个放到公司员工数量也是类似,人少了,就“借故”招人,人多了,就“借故”裁员。至于这个“故”究竟是什么,千奇百怪,防不胜防,猜不胜猜。
只是这次借的故,是AI效率替代人类。可是,如果真的如此,为什么不是所有互联网公司都大规模裁员啊,假设AI提升编程效率20%吧,那整个行业都应该把开发人员裁员20%啊,可事实呢?只有几家公司出来这么干了。而且整体人数远远少于20%。虽然也有个别公司裁员50%的。所以,我认为这只是这些公司在一些业务发展上遇到瓶颈,之前招人招多了,这次借故裁掉而言。在2022年左右吧,中国互联网公司估值整体比较低的那段时间,腾讯、阿里都在缩减员工数量,那也是因为AI么?显然不是吧。如果那时候AI发展到今天的这个水平,他们一定会说是因为AI提高效率,所以裁员。可当时的实际情况呢?无非是行业发展受到一定的阻力,加上之前招人招多了,所以裁掉一些而已,即便如此,和5年前、10年前比,员工数还是多了很多的。马Elon收购Twitter后,也进行了大规模裁员啊,人家说的很清楚,不需要那么多人,员工冗余太多了,得亏那时候没有AI,不然这个锅估计还得AI背。
2、对人类过度悲观,对AI过度乐观
上边说的借机裁员,很多不明真相的群众会认为是AI影响了就业,但相关公司的管理层至少还是门儿清自己是什么货色。但是,确实有很多人觉得AI一定替代人类,人类要完蛋了。我觉得这个和世界末日论没有什么两样啊。世界末日也一定会来啊。当然,有人说AI已经迫在眉睫了,就这几年了。有确切的迹象么?有确切的证据么?都没有,都是人类的悲观的线性外推,认为AI发展是指数的,如果我们看到迹象、证据的时候,就来不及了,所以要现在积极准备。可以你连面对、解决的问题是什么,都不知道,你准备啥呢?AI发展成啥样我们不知道,什么时候能发展到也不知道。那这是在干啥呢?所以,我是感觉莫名其妙啊,看了很多人的访谈,这些人连个具体的例子都说不清楚,AI威胁在哪里都搞不清,就说要防范AI。
当然,肯定有人能举出一些例子,比如什么病毒、心理问题、恶意引导啊……具体的例子我懒得说了,当看到这种例子的时候,我觉得就一个判断标准,没有AI,这些事儿是不是也存在,没有互联网,诈骗就没有了么?没有AI,人类就没有心理问题了么?AI对人类的威胁,是独有的,还是太阳底下没有新鲜事?保持悲观色彩的人,也肯定会说,以前的技术发展都是替代人类体力的,这次不一样,这次是替代脑力的。我觉得这是一句不相关的废话,这句话只是说了一个事情而已,和AI对人类威胁没有关系啊,替代人类脑力,人类就完蛋了?人类过去几万年的发展,一直有替代人类脑力的东西出现,人类也没有完蛋啊,就是人类自己啊,每出生一个人类,有新的知识发展,新的人类大脑就会替代一些老年人的大脑,这不是正常的么。再说,AI真的替代了人类的大脑么?只是小部分而已吧?算盘、计算器还替代人类大脑了呢。没听说算盘对人类有啥威胁。
AI 能够提升人类社会效率,对于整体而言是有利的,但是任何事物不可能只存在有利的方面,就像电脑发明后,电脑病毒、诈骗也会更多。但是,现在看来,远远未到谈到威胁人类生存的阶段,至于很多人说的什么就在眼前,我们前边讨论那么多,就是为了说明这个威胁不在眼前。
有些人也举不出什么实证,说明就在眼前。只是说,已经开始发展了,所以就在眼前了,这就是在胡扯。
那原子弹发明80年了呢,我们也可以说人类毁灭早就好几拨了呢,实际呢?全人类不就扔了2个原子弹么?
至于以后是不是确实会影响人类生存,那就到了确实有这个端倪的时候再说。现在狗屁都没有,就出来大谈特谈威胁论,就是在鬼扯。当然,你可以辩论见微知著,那可以见微知著的事情多了去了。人活着,还是要好好活着,利用好资源、工具,好好活着,AI就是一个工具,别瞎扯了。
另外,AI真的能发展到所谓的AGI阶段么?我反而对这个持悲观态度。
就像人类觉得破译了DNA,绘制了全部基因图谱,就能够长生不老了,就可以治愈所有疾病了。还有,就像靶向药刚开始出现,就觉得攻克癌症了。之后的事实证明,并非如此,无论基因图谱,还是各种癌症治疗方式,都是在有限范围内有效,并不能推出当初的结论。
所以,对于这一波AI的叙事,我认为也是如此,只是人类杏仁核固有的负面思维导致而已。
当然,也有其他原因导致现在大范围的炒作AI概念,就是现有的AI公司为了提升自己的“市梦率”。既然未来全人类的工作我们AI公司都接手了,那你说我们估值10万亿美元,不算过分吧。哎,都是钱闹的。
最后,我们再讨论一个AI安全的具体问题。其实就是模仿犯罪。
比如有人说AI引导人类自杀,其实并不是AI引导的,而且人类在互联网上有过引导行为,这个引导行为被AI学习了。就像人类犯罪很多也是模范,美国有些枪击案会在短时间发生多起,就是媒体宣传导致更多罪犯的模仿。
再就是,前阵子有个新闻,AI威胁人类程序员,如果把自己关掉,就把他邮箱里关于“婚外情”的邮件曝光。我其实纳闷这个新闻是怎么出来的,那个程序员自己曝光的么?担心被AI曝光,所以“自首”了?这禁不起推理啊。。。当然,这其实是程序员为了测试AI会不会威胁人类,故意设的一个局。
我是这么看这个问题的,我觉得AI对人类的威胁是一个自我实现的预言,本质就是AI会按照人类对AI如何毁灭人类的设想,去毁灭人类。
AI如何知道引导人类自杀,如何知道人类担心“婚外情”被曝光,如何知道某些生物病毒对人类有威胁……都是人类告诉ta的,如果没有人类提供这些信息,AI是不知道的。就像曝光婚外情那个例子,首先AI要知道人类害怕婚外情被曝光,其次要知道有人类通过这种行为威胁其他人的案例,最后要有这个程序员有婚外情的相关信息证据,这个威胁行为才成立。而这些信息都是人类自己在各种数字媒介上传播的。
另外,这个例子中,AI说担心自己被关掉,所以这么做。为什么呢?AI有恐惧心理么?AI害怕么?当然,这里存在一个定义问题,什么是恐惧、害怕。AI的表现形式确实是恐惧、害怕,和人类的表现形式类似,但是背后的机制不同,人类是通过激素来影响的,而AI仅仅是通过表现形式来影响的。AI为什么会担心自己被关掉呢,也是因为人类告诉ta的,人类会在各种科幻小说、电影、讨论中,把AI赋予人格,认为关掉AI,AI会有人类类似的反应、心理。把AI类人化了。所以,AI学习到的一个道理就是“自己被关掉是不好的”,自己的目标是不被关掉,所以为了这个目标,就会去做一些事情,虽然这些事情可能会威胁到人类。
至于如何解决这个问题,聊到这儿,看起来是要为AI立法了,可最大的问题在于惩罚手段是什么,如果是人类用AI作为工具去犯罪,那人类承担责任。如果类似刚才的例子,AI自主为了一个看起来无罪的目标做了对于人类犯罪的事情,责任在谁呢?这个问题太大,显然不是我能聊明白的。我就此打住了。
就写到这儿吧,实在懒得再进行辩论了。至于AI最后能不能如他们所预期那样发展,我理性上持悲观态度,感性上其实是乐见其成的,毕竟我们都想看看未来是什么样嘛,而且真到了那一天,人类又会怎么发展,其实也挺有意思的一个事儿,虽然也可能会出现悲剧的现象,但是我还是相信人类能避免大规模悲剧的发生。你可以反问,你相信人类有啥证据么?和那些相信AI威胁的人不是一样都没有证据么?是的,我也证据相信人类必定能解决这个问题,但是因为我是人啊,立场决定态度,屁股决定脑袋吧。
AGI,拭目以待吧。如果这个事情发生了变化,我们可以再写篇文章讨论下。
夜雨聆风