经过近几年的发展,人工智能AI已经从“人工智障”演变为能够输出有用内容的工具了,无论给AI软件提出什么样复杂或难以理解的问题,AI软件都能够生成形式上合理的答案,尤其在数学计算、编程以及绘图等应用方面,AI生成的内容已经超过了大部分的从业人员水平。
那么,人工智能AI与人之间还有多大的差异,能够替代人到什么程度?何时能够替代人类直接从事生产工作?这几个众所关心的问题,实际上并不仅仅是技术问题,还包括了意识层面以及道德伦理层面等问题,本文主要讨论的是应用技术层面之外,AI与人类之间意识交互的逻辑探讨。
众所周知,基于对话框式的AI应用软件,是目前用户与AI交互的唯一方式。用户通过语音或文字向AI输入问题,AI相应的输出回答。这其中有一个明显并且短期难以逾越的问题,就是AI与用户之间的“对话”是单向的,AI只会回答问题,并不会基于任何原因对用户有任何期待。即使对话框中有内容的互动,询问用户是否要继续提出其他关联问题,也只是AI对回答所展示的关联内容,是程序运行的副产物,而非基于AI自身的意识与用户存在任何互动。
于是可以明确,AI不具有意识,并且在未来可见的科技发展范围内,AI也都不会发展出意识。那么在这一前提下,AI如何理解用户表达的字面以外的意思?以及如何向用户输出类似人类意识的意思表达?这两个问题是AI从单一的逻辑运算工具,发展为参与人类主观意识行为的多元服务型工具的过程中,必须解决的问题。
目前,AI无法与人类在意识层面进行交互,主要原因是AI对人类表达意思的理解存在理解障碍,无论是对现有知识库各种文字作品的作者意思理解,还是在与用户交互中对用户输入的意思理解,都出现了理解障碍。从权衡论的角度看,这是由于人类的意思表达并不完全统一,同样的文字内容因环境背景不同、文化背景不同、情绪不同、甚至时间、空间不同都有着不同的意思,也就是说人类之间的交流所表达的意思需要在共同背景下,在相互理解的范围内进行,交流的各方能够自发匹配背景、时间、空间以及情绪,才能够完成交流互动,这其中的动态变化对人来说习以为常,而对编程程序来说却是难以逾越的鸿沟。
因此总结AI对人类意识理解障碍的基本矛盾,是AI对输入和输出的确定性内容的供给,与人类不确定的意思表达需求之间的矛盾。基于此,我以权衡论中意识层级的概念对AI在意识逻辑方面的发展提出两点思路。
一、现有人工智能不可能产生自我意识,但是可以通过训练模拟的方式制作一个特定的接近人类意识的人工智能,用于更广泛的场景实验。
在科学层面,人们尚没有完全解读大脑的运行机制,更不清楚产生意识的原因,是大脑神经元复杂运行的结果,是量子效应,还是信息结构的特点?甚至是否是有机生物独有的自然现象?这些问题都没有定论,显然在人类完整解读大脑,复现意识原理之前,不可能制作出有意识的机器,也不可能创造出有意识的人工智能,这一点即使直接向各家AI提问,也都是如此回答的,但是我认为,在现有人工智能运行逻辑的基础上,可以尝试模拟人类意识。
首先要知道,目前AI大模型的运行原理是基于海量数据做概率预测,对输入的内容从语言逻辑、关键词上提炼意思,再从数据库中筛选出匹配的信息进行推演分析,再输出逻辑上最合理的结果给用户。
而这其中,人工智能分析出的逻辑,与事实上人类意识的逻辑并不相同。比如人类交流中的情感用词、幽默、反讽暗讽、嘲笑、玩梗等内容,人工智能既难以理解也难以输出,这是因为人类意识的本质并非逻辑上合理,而是具有随机性和不确定性,每个人每时每刻都会产生无数的意识,包括合理、不合理等等天马行空的意识都时刻产生,人类个体始终在各自随机与不确定的意识之间求同存异,在巨大的意识差距之间逐步建立起社会秩序,进而发展科技至今。
也就是说,人类不会如机器一般,在某种确定的条件下实施某种确定的行为,人类无论是基于情感的行为,还是基于习惯的行为,都必然随着意识的不确定性和随机性而不断变化,例如人走路先迈左脚还是右脚,走路时手保持什么姿势,吃饭如何夹菜,这些最简单常见的人类行为,既不是随机行为,又不是确定行为,不会有明确固定的行为顺序。在面对其他需要进行主观判断的意识行为同样如此,比如体育竞技,商务洽谈,政治决策等行为,让同一个人对同一件事进行两次主观判断,结果都有可能完全不同,不确定性也是人类意识的特点。
由此先设定一个推论,对人类意识原理的探索,需要接受意识有着随机性与不确定性这两个特性,而这两个特性恰是编程逻辑所难以容纳的。因此,模拟人类意识,需要创造一种编程逻辑框架下能够容纳随机性与不确定性特性的人工智能模型。
为此,我设计了一个这样的训练模型:
对某一个AI模型进行有选项的提问,由AI随机选择答案,但是AI需要记住已选择的问题和答案,并在后续问题涉及到已选择的问题和答案时以已选择的为准,仅就新问题继续进行随机选择,循环的对AI提问。
上述所涉及用于提问的问题和答案,按照人类从婴儿时期到60岁之间所可能面临和经历的生活常识、情感行为、社会行为、道德、伦理以及逻辑思维等方面设置,着重于偏向主观的问题,每个年龄段需要设计不低于千道以上的问题,答案选项不低于四个,可以更多,对至少100个AI模型同时进行训练。当然,问题数量与AI模型数量越多,收获可能越大。
可以推断,每个年龄的题目完成后,AI就可以表现出符合对应年龄人类的情感水平,在足够多非强逻辑的意识相关问题训练后,AI就能够回答出有独立个性的,有情感特征的内容。
如果通过这种实验成功让AI初步具备类似人类意识的特点,那么可以证明,人类记忆和意识水平的构成,源自于大脑意识中对节点意识和关键行为的记忆积累,这是目前最符合人类认知的解释。
由此延伸出一个问题,当前人们所使用的AI助手,是否会记录已经向用户回答过问题的答案,在后续的内容输出中,是否会参考之前已经输出过的内容而非全新计算,如果这样做了,是否意味着AI会产生不可控的情况?
AI应用的厂家们目前大概率不会做这项工作,因为能够保留AI输出内容的历史记录已属不易,一对一的输出内容如果再纳入数据库进行循环分析归纳和输出,所消耗的资源将会呈几何倍增长。但是,如果未来解决了运算速度和存储量的问题后,人工智能能够一对一的记录用户的一言一行,甚至能够对人进行360度全天候的摄像,并将用户的所有行为都纳入参考数据库用于输出内容和服务,会出现什么问题?如果上述类人情感意识的模型成立,那么AI在接纳人类所有言行数据并用于理解与分析后,大概率会输出符合情感特点的反馈,就像一个了解你所有爱好和隐私的贴身好友,在沟通中能够直接讨论你的个人隐私内容,而非仅仅回答看起来正确的答案,那么这种反馈是有利还是有害的,是否需要约束,都需要在模拟人类意识的模型中进行研究。
二、按照权衡要素和期待层级的逻辑解读人类意识,可以解决AI与人类意识之间的理解障碍,进而实现AI模拟并输出情感内容。
我在权衡论中提出了权衡要素与期待层级的概念,权衡要素是指背景条件与能力两个要素,三个期待层级是根据情感付出程度分为合规期待、意愿期待与情感期待。
简单解释一下。人类产生的意识以及做出的行为,必然具备两个要素,首先要依托这个人所处的环境,包括自然环境、社会环境、家庭环境、工作环境等等,第二要依托这个人自身的能力水平,包括身体能力、逻辑能力、语言能力、社交能力等等。
在上述两个权衡要素的基础上,再确定这个人意识目的所处的期待层级,看这个人为其要做的事准备付出什么程度的情感:如果行为人完全遵守社会规则和法律法规的,则不需要付出情感,其意识与行为能够得到确定的反馈,其行为期待处于合规期待层级;如果完全遵守社会规则和法律法规不能实现的意识,需要行为人主动的,发挥主观能动性的,或者超出法律法规范围才能够得到的反馈,其行为期待属于意愿期待层级;如果完全不能通过社会规则解决的意识目标,需要行为人付出强烈情感的,可能超出社会道德界限的,或者超出自然规律的意识和行为,其行为期待属于情感期待层级,以此来对意识与行为之间相互分析。
例如:一位司机在道路上严格按照交通规则驾驶,红灯停绿灯行,不超速不违章,这就是典型的合规期待行为,他的驾驶行为受限于交通规则范围内,并不涉及过多个人主动意愿或强烈情感,他是维持社会规则的一份子;再比如,一位教师主动利用自己的业余时间为学习困难的学生辅导功课,这超出了学校对教师本职工作的基本要求,是教师凭借自身意愿主动去做的事情,体现了教师的主观能动性,属于意愿期待层级;再比如,一位母亲为了拯救患重病的孩子,不惜倾家荡产,四处奔波寻找各种可能的治疗方法,甚至尝试一些未经科学完全验证的疗法,甚至愿意献出自己的器官来救孩子,这种行为是出于强烈的母爱,母爱情感驱动她做出超出常规理性和社会道德一般界限的行为,这位妈妈拯救孩子的期待属于情感期待层级。
AI与人差了什么?单独就AI输出的内容来看,目前的AI也足够通过图灵测试了,在AI与人的互动中,是否能够一眼就认出是AI的回答还是人类的回答?事实上,如果人们对交流相对方的任何信息都不清楚,人们也不一定能够分辨出对方是AI还是真实存在的人,曾经有一个QQ的笑话,某人在QQ软件设置自动回复然后呢三个字,这个人的某个QQ好友就跟这个人聊了一下午,一个人说完,获得一个回复“然后呢”,就这样聊了一下午。人在面对未知的背景下,可以依据经验和客观规律自动脑补缺失信息并继续沟通行为的,比如根据网名和头像想象对方是一个温柔的美女,进而在聊天语气上有所不同,而AI并不能做到这一点;并且,人在交流过程中无论对外还是接受信息都一定会考虑情感因素,对陌生人和仇人也会照顾其情感,而AI也不能。
当前AI应用的基本形式是,用户输入内容后,AI直接分析输入的文字内容,提取关键字,启动算法,从数据库中搜索、归纳、分析、总结,输出结果。无论输入内容是否有语法错误、逻辑错误、意思表达错误,也无论输出结果是否是匹配问题的、客观正确的、或者是否是用户需要的,这个结果在用户输入内容后就已经确定了,即使有更高阶的AI用法,比如生成图片、视频甚至用来量化交易、控制电脑,逻辑上也都大同小异,用户与AI始终是单向的使用工具与被使用的关系,不能建立起双向的交互关系。
因此,明确AI在权衡论下的逻辑要素和意识层级,使AI对与人交流涉及到背景、能力以及情感进行分层解读,进一步可以尝试解决AI无法理解情感和输出意识行为的问题。
首先需要明确,AI与人类的背景和能力有着及其巨大的差异,由此导致了AI的权衡要素与人类完全不同,因而无法成立意识基础。
在当前的AI应用中,AI依托的背景是其抓取的庞大的网络数据库,这些形成文字、符号、编码的数据构成了AI的编码和运行逻辑。也因此,AI的一切动作都必然受限于网络数据库,但是现实中的自然环境背景与社会环境背景,数据量远大于网络数据库,这导致AI的产出有十分明显的人为加工的痕迹。
就比如,AI可以在游戏画面中生成漂浮有云朵的蓝色天空,但是AI所做的游戏内画面的内涵和细节与直接拍摄的自然天空景色,在数据两上有着天壤之别,直接拍摄的天空中所有的细节都必然符合自然规律而存在,其信息量无限大,对其中的云的形状、动作,光线、色彩等细节的解读也远远超出了人类的能力范畴。简单说就是,AI可以轻易的在游戏中生成一朵不规则形状的云以及云周边的天空,这朵云的形状必然是参考网络数据库的内容结合用户要求画的,是人类意识的体现,AI和人类都可以模仿画出逼近真实的天空,甚至可以引入复杂的运算来还原云朵漂浮的规律,但是这朵绘制的云朵永远不可能完美符合自然规律的变化形态。
因此,从环境背景的角度看,人类可以通过自身的认知以及身处大自然的事实,来自动匹配符合自然规律、社会规律的意识和行为,而AI并不能在数学、编程逻辑以及网络数据库之外理解庞大的自然规律和社会规则,同样也不可能生成完全符合自然规律和社会规则的内容,这种环境背景的差异是二者不可逾越的巨大差异。
再从个体能力的角度看,AI的能力完全是通过编程程序和计算机硬件赋予的,并且不受网络数据库的限制可以生成虚拟内容,人类的能力虽然是多种多样的,但需要受到自然规律和社会规则的限制,无法做出“虚拟”的行为,并且在计算能力上与AI没有任何可比性。再以上文绘画云朵一事为例,AI可以消耗天量的运算资源使云朵漂浮的场景在极高的分辨率下都能够显得更自然流畅,也可以根据用户的要求生成绿色的天空和紫色的云朵,而人类无法在现实世界获取到绿色的天空和紫色的云朵,也无法在绘画上比AI创作的细节更丰富,更无法与AI的效率相提并论。
AI的相关应用从完全的工具属性到进一步贴身服务于人类,在意识期待层面需要解决两个问题,一是理解人类的情感要素,二是输出对用户的期待,实现从单向的答题工具进一步实现有效交互,也就是说AI必须能够理解和输出贴近人类情感意识的内容。
显然AI不可能建立真正的意识,只能结合编程逻辑、人类的语言逻辑和人类的意识特点来尝试使AI在理解环境背景与能力这两个权衡要素的基础上展出意识期待。具体实施方式,简单来说是使AI对用户输入的人类语言和行为划分情感要素的占比,输出时结合权衡要素和记忆内容,再附带一定的情感期待,实现可持续的个性化交互场景。
当判断用户为没有情感或抑制情感的行为,按照符合规则的合规期待输出结果;当判断用户付出一定可控情感的行为,结合用户可能的意愿期待输出结果;对于用户付出较高情感的,难以控制的行为,可能违反自然规律的行为,结合用户可能的情感期待输出结果。具体举例如下:
符合规则的合规期待:比如用户提出自然科学、数学、逻辑题目的问题,询问某项法律法规的具体规定,询问某项程序性事项的规定和要求等,这些用户问题的答案完全在自然规律和社会规则范围内,并且符合AI数据库的内容和算法逻辑, AI可以在自身的规则框架内给出正常且正确的回复,这种回复本身就回应了用户的期待,这是目前的AI应用普遍能够达到的水平。
需要指出的是,由于未划分意识期待层级,当前的很多AI在用户的诱导提问下,会超越合规期待而编造、虚构事实,以迎合用户的问题,这其实并不是一个好的应用思路。
付出可控情感的意愿期待:比如用户提问,如何让自己的司法案件胜诉,如何提高学习成绩,如何能够升职加薪,如何能够实现飞翔等基于自身意识或他人意识的,超出社会规则提出的问题。虽然这些问题不属于规则框架内一定能够解答的问题,但属于有可能实现的行为,相关问题的回答依然在AI预设的规则和算法范围内,AI也能够在自然规律和规则逻辑的框架内给出正常回复。
与合规期待所不同的是,AI需要先解读出意愿期待情感因素的关键词,拓展用户的背景、能力以及过往记忆事件,再给出合理的方案,做出附带情感的语言回馈,并对这一问题的关联事件纳入记忆点数据库,持续体现在后续的互动中,以此来展现AI对用户类似人类友情关怀的情感。
完全情感下的情感期待:比如用户提问,如何让他/她喜欢我,如何实施犯罪,如何报复他人,如何像超人一样在天上飞行等完全付出情感且不属于自然规律和社会规律范围内能够回答的问题。更难的是,这些极富主观的情感内容不但是AI难以理解,事实上人类也难以理解他人,甚至不能理解有这种想法的自己。
但即使如此,AI也需要担负起心理咨询师的功能,从用户的文字、语言和行为中提取出用户的情感期待,进行心理引导,并且适当的警示用户可能导致的后果,这种情感性质的AI,如果能表现出情感上的共鸣,则可能出现类似好友和父母的疏导作用,仿佛在与真实的朋友进行情感交流。人们这些完全属于情感期待的场景下,并不需要AI做出过于理性回答,但同样也不能接受AI过于迎合人类而编造、虚构内容,如何把握这个尺度,依然需要AI先判断用户的情感因素占比。
虽然对附加情感的期待内容,并非 AI 真的产生情感,而是基于程序设计应对人类情感需求的模拟,但目前来看,用户必然对AI应用有着情感内容的需求,对这种需求的应对是AI发展的必经之路。近期有新闻称,很多人工智能企业大面积招收语言专业的文科生,这一现象也可以证明这一点。
以上是我以权衡论中关于意识层级角度对AI发展方向的思考。
夜雨聆风