1 关于AI不存在意识
这个与下文分析AI伦理高度相关,所以有必要厘清楚。我们的观点,参见本号文章《AI是否可以具有意识?斗胆分析一下》——硅基AI不存在意识。
有人说,谁也无法在科学上严格证明将来的AI也不会有意识,正如谁也无法在科学上严格证明将来的AI可以有意识。说的对,但是别忘了——
第一,支持AI不存在意识的,是AI的基本原理,它是人发明的因而是已知的,虽然它解决问题的方式是数据归纳与统计因而难以按照人理解的规则推理方式来解释。你如果想证明未来硅基AI有可能出现意识,那你需要先证明在硅基路线下所谓“AI意识”的原理是有可能出现的。关键在于,我们的起点是AI无意识而不是有意识,并且你的假设是我们要去“发明AI意识”,这就不同于我们去“发现自然物的意识”。前者需要人提供“意识原理”;后者是大自然一些产生物本身就存在“意识原理”,无须人提供,人只需观察与揭示。人造物与自然物的区别决定了:我们无须证明“AI永不可能有意识”,而是,如果你证明不了“可预见的未来可能出现存在意识的AI”,那么“可预见的未来AI不存在意识”就是一个值得被相信的结论——还是那句话,AI技术发展的起点是无意识而非有意识,发展过程又只能靠人推动,所以证明上述论断的责任在于主张有意识的一方。
第二,之所以强调“可预见的未来”,那是因为讨论的是科学而非科幻。考虑到AI的大规模社会应用是现实,所以这一点尤其重要。没错,我们无法给出严格的科学意义上的证明,关于人类永远不可能飞出银河系,但谁心里都明白,在可预见的未来,地球人飞不出银河系,这就够了。说白了,人不是机器,我们无须严格的数学证明,就可以做出社会学现实决策。正如,没人能严格证明“p是否等于np”这个数学与理论计算机科学问题,万一答案是“等于”,那当前的银行密码安全机制就是形同虚设,所以难道你能建议所有银行弃用密码吗?好在,大家其实也知道,答案怎么可能是“等于”呢?常识就是常识,无须你先给出数学证明,也可以选择在相信常识的基础上做出现实决策。因此,如果你确实对科幻有兴趣,热衷探讨人类飞出银河系之后在哪个系外行星遇见了外星人,然后两个星球的人们如何平等相处,这样的“科幻与社科交叉话题”当然很有趣,但是这不是现实政策依据,也不应在叙事传播中误导成“科技与社科交叉领域”,以免误导产生不必要的恐慌。
2 关于AI伦理
既然AI没有意识,那AI就不是行为主体,也不是权利存在。所以,不是“如何对待AI才算符合伦理”(国外某著名科学家在这一点上显然搞错了),而是“如何使用AI这一工具不会损害人”——这才是AI伦理的含义。
如何使用AI不会损害人?这需要“AI治理”,既然AI没有意识只是工具,那么治理的重点对象就是人而不是技术发展本身。具体哪些人?需要分情况讨论。
第一,支撑未来AI技术发展的底层基础研究不仅无需治理,反而应该鼓励自由探索。正如当年物理学领域的相对论,你不能因为担心后来的纳粹研发原子弹,就把爱因斯坦抓来问责。正确的做法是,你加快推进,比纳粹先研发出原子弹。而爱因斯坦相对论本身,是有利于科学技术长期进步,并造福社会的。
第二,AI核心技术应用研究,这个层面的少数行为是否需要治理,要看研究目标与可行性。举个例子,“有意识的硅基AGI”这种,研究目标不符合伦理(机器如果有意识,当然有可能危害人),但不具备现实可行性(你就是放任他,他也研究不出来),所以无需浪费公共资源去监管这个。
第三,工程开发应用。这个层面的一部分行为很需要监管。比如,有人开发用于侵犯他人隐私的AI程序,属于非法行为,必须禁止。
第四,对AI工具的使用。这个层面的一部分行为更需要监管。比如,科研人员做出的大模型,原本是服务于人、造福社会,但使用层面有人拿这个工具搞诈骗,那就是“工具使用者”违法犯罪,不影响“工具创造者”的正能量。网上常见的一种认知错误是——误把使用者的锅让研发人员背——打个比方,交通法规规范汽车驾驶员行为,这很对,因为在路上做出非法驾驶行为的,是个别汽车用户,而不是实验室里研发新汽车的科研人员,后者也在研究安全技术,提升汽车本身的安全性。
有人可能说,大模型不是汽车,前者有“幻觉”,可能误导人,危害人的利益。没错,确实如此,但这仍是不当使用的问题,技术本身是无法根除幻觉的,除非你废掉它的统计预测原理,否则当然无法保证百分百准确,但如果你真把它的统计预测原理废掉,它的功能也就没有了,你要它还有何用?
既然是不当使用,那解决方案就是明确使用范围与使用方式,而不是因噎废食式的减缓AI技术发展速度。比如,AI生成内容必须明确标注,提醒人们独立思考而非盲目相信AI。再比如,AI医疗诊断意见只是建议,必须经过医学专家把关。还比如,绝对不允许AI控制核设施。……
网上一种常见的误区是:把合理的AI伦理治理,误导成基于“AI末日论”错误叙事的“减缓AI技术研发速度”。这就大错特错了。
与AI相关的行为,当然可能导致世界末日。但这不是幻想中的“AI存在意识”,也不是臆想中的“AI技术过于强大导致AI威胁人类生存”,恰恰相反,这是“AI技术不够强大,因而如果你把过于重大的事项交给它,会极度危险”——举个例子,如果特朗普政府把核按钮交给“既不存在意识也并没有真理解能力的AI”,那对世界和平与人类生存可能带来灾难性后果——正如把核按钮交给三岁小孩,不是他智能水平太高带来的危险,而是他智能不够高带来的威胁。所以,解决方案不是限制技术发展,不是暂停提升AI技术水平,而是对AI使用中的危险场合与方式进行禁止。
还有一种情况与“末日”相关:因为AI的外在使用效果很强(虽然它没有意识、真理解等人脑智能本质),所以邪恶势力使用AI(军事化)可能危害世界和平。那解决方案依然不能是限制AI技术进步,而是正义方要加快研发进度,用更强AI维护世界和平。
很多情况下,加快AI技术进步反而有助于解决AI伦理问题。除了上文所述的正义方研发AI先进技术有利于世界和平,再举一个例子。比如自动驾驶,当前人们不放心让AI开车,是有道理的,因为AI智能水平还不够,所以应该加快研究,提升AI的智能水平,可望更好保障人身安全。
总之:AI技术本身不仅不可能带来世界末日,反而有助于帮助正义方阻止邪恶势力把世界拖入末日;AI伦理并不存在于基础研究层面,而是确实存在于工程开发与社会应用层面,解决AI伦理相关问题非常重要;AI伦理治理的重点,应该是不当使用AI的某些人,而不是技术本身,更不是推动科技进步、用AI服务于人民的广大研究人员和各行各业应用人士。
声明:此文为本号原创文章,版权归本号所有;转载请后台联系本号获得授权,否则本号保留依法维权的权利;欢迎转发至微信朋友圈。
夜雨聆风