数字面具与他者之痕:AI时代道德重构的空域拓扑与时域断裂
一种基于列维纳斯伦理学的跨维度考察
摘要:
本文以列维纳斯他者伦理为理论基底,引入空域拓扑、时域断裂与维度压缩三个交叉学科概念,构建AI时代道德重构的形而上学模型。研究揭示,AI技术引发的道德危机本质上是道德实践的空域结构从“连续邻域”向“离散拓扑”的退化,以及道德时间的“绵延”被压缩为“瞬时脉冲”。数字共情的悖论在于:它既可能成为撕裂道德空间的“拓扑剪枝”,也可能构造维系他者性的“弱联结跃迁”。通过对知网文献的批判性对话,本文提出“数字-面对面”的道德本体论补偿机制,论证良知作为不可算法化的“奇点”在技术时代的主体性地位,并最终以“他者之痕”概念统摄空域、时域与维度的三重断裂,为AI时代的道德重建提供可验证的理论框架。
关键词:空域拓扑;时域断裂;维度压缩;他者之痕;道德奇点;列维纳斯
一、引言:当道德空间不再连续
数字技术的渗透正在改变道德实践最底层的空间结构。按照列维纳斯的理解,道德发生于我与他者“面对面”的原初场景——那不是隐喻,而是一种拓扑学意义上的邻域关系:他者的面孔在我面前呈现,我们之间的距离足够近,以至于我无法假装看不见他的脆弱。中国传统所谓“触景生情”,同样预设了“景”的空间可通达性——孺子入井的景象就在眼前,不容回避,不容计算。
AI时代对这一空间结构进行了外科手术式的改造。算法将人与人之间连续的“道德邻域”切割为离散的数据节点:一个需要帮助的人不再是出现在我面前的面孔,而是一串用户ID、一组行为标签、一个推荐系统中的冷启动问题。李建华等学者将这一现象概括为“道德空间的碎片化”——个体通过责任意识建构的道德空间不再完整,而是呈现为断裂的碎片状态。杨慧、王艺霏则进一步指出,数字社会中的技术理性通过“限制个体道德本真情感生发、否定人际关联的道德意义、形成普遍化的道德漠视”三个维度,系统性地拆解了道德空间。
既有研究已深刻揭示了这一过程的伦理后果,但大多停留在现象描述与规范批判的层面,尚未追问更深层的结构性问题:道德空间的拆解,究竟改变了什么?如果道德本质上是一种空间性实践,那么空间的拓扑结构发生变化时,道德的形态会发生怎样的嬗变?更重要的是,数字技术是否也在创造新的空间形态,使得道德联结以另一种方式重生?
本文尝试从空域拓扑与时域断裂两个交叉学科维度重新打开这一问题。核心判断是:AI时代的道德危机,本质上是道德实践的空域从“连续邻域”退化为“离散拓扑”,以及道德时间的“绵延”被压缩为“瞬时脉冲”的结构性后果。重建道德空间不是复刻物理面对面的场景,而是在数字拓扑中构造能够承载“他者之痕”的新型邻域结构。良知,正是在这一意义上成为技术时代不可消解的“道德奇点”。
二、空域拓扑:从连续邻域到离散节点
2.1 道德空间的拓扑学理解
拓扑学研究空间在连续变形下保持不变的属性。将这一视角引入道德空间的考察,可以获得传统伦理学难以触及的洞察。列维纳斯所描述的“面对面”,可以形式化地理解为一个拓扑邻域:我与他者处于一个连通空间中,彼此之间的距离足够小,以至于他者的脆弱性信号可以不经中介地传递给我。这个邻域的关键特征不是物理距离的绝对值,而是其连续性——任何中间物的插入都会改变空间的性质。
在极端情形下,这种连续性表现为一种“无路可逃”的结构。鲍曼在分析现代性道德困境时指出,官僚体系之所以能够制造道德冷漠,恰恰是因为在受害者和行动者之间插入了足够的组织层级,使得原本连续的道德空间被“拉长”为一系列互不相连的环节。列维纳斯的概念更为彻底:他者面孔的到来就是道德呼唤的到来,中间没有解释、推理、规则的地盘。这种直接性只有在连续邻域中才能成立。
2.2 AI中介的拓扑剪枝
算法系统的介入对道德空间执行的是一种“拓扑剪枝”操作。原本连续的我-他者邻域被切割为三个相互隔离的子空间:我面对的是界面,界面背后是算法模型,算法模型的另一端才是他者的数据化表征。严格来说,我与他者不再属于同一个连通空间。
这种剪枝操作有三个关键步骤:
第一步是面孔的数据化。他者的痛苦被转译为可量化的指标——点击率、停留时长、风险评分、情感极性。数据标签替代了面孔的直接呈现。心理学研究表明,当决策对象由真实的人变成抽象的数据描述时,道德反应强度显著下降。这不是因为人们变得更冷漠,而是因为道德情感的触发机制需要面孔的拓扑邻近性——数据没有面孔。
第二步是责任的链式弥散。AI系统中的决策被拆解为多个环节:数据采集、特征工程、模型训练、输出解释、最终执行,每个环节由不同的主体承担。这与鲍曼所描述的官僚制责任稀释高度同构,区别在于效率更高、链条更长、透明度更低。设计者、训练者、部署者、使用者都可以声称自己只是“按程序执行”,没有人面对最终被影响的他者。
第三步是感知茧房的构筑。推荐算法通过协同过滤将用户锁定在偏好同质的信息空间中,他者的面孔——尤其是那些与我不同的、使我感到不适的他者——被系统性地过滤掉了。这是一种更深层的拓扑剪枝:算法不仅切割了特定的联结,还重新塑造了我所能“看见”的世界边缘。
2.3 离散拓扑中的道德衰减定律
上述分析揭示了一个可验证的“道德衰减定律”:在离散空域拓扑中,道德责任的强度与他者面孔的拓扑距离呈反比函数关系。拓扑距离不是物理距离,而是信息传递需要跨越的中介节点数。每一个新增的中介节点(算法模型、数据聚合器、自动化决策引擎)都构成一次“信号衰减”,不仅削弱他者脆弱性的可感知程度,也增加主体推卸责任的可能性。
这一衰减定律可以通过实验进行验证。现有研究已找到相印证的现象:在AI决策中,个体对不道德结果的道德反应显著弱于对人类决策者的反应。从拓扑学角度看,这是因为AI决策在感知链上增加了一个额外的中介层。可以预见,随着AI系统复杂性的提升——比如从简单推荐算法发展为多智能体协同系统——衰减效应将进一步加剧。
然而,空域拓扑的视角也揭示了重建的可能性。连续的邻域固然是最优的道德空间,但并非所有有意义的联结都要求连续拓扑。在拓扑学中,存在“弱连通”甚至“不连通但可跃迁”的结构。这就引向下一节的核心问题:数字技术是否可能构造一种新型的、离散但并非断裂的道德联结?
三、时域断裂:绵延的消失与决策的脉冲化
3.1 道德时间的柏格森式理解
如果说空间的离散化解释了道德责任的结构性衰减,那么时间的变形则解释了道德情感的质地性退化。柏格森区分了“空间化的钟表时间”与“作为纯粹流动的绵延”——前者是可度量、可切分的同质单元;后者是意识中过去、现在、未来相互渗透的异质连续体。道德情感恰恰属于绵延的领域:愧疚不是瞬时的情绪反应,而是随时间的展开而加深的沉淀;牵挂不是一次性的在意,而是对未来持续关切的预期;触景生情不是一个孤立的事件,而是整个生命经验的瞬间凝聚。
列维纳斯的他者伦理隐含了对绵延时间的深刻依赖。对他者的责任是“无限的”,这“无限”不仅是空间意义上的——超出任何规则的限定——也是时间意义上的:它的到来没有预设终点。当我对某人负有真正的责任时,这不意味着我在某一刻履行了义务就可以卸任,而是意味着我的时间从此被他者的面孔所标记。
3.2 实时性暴力与道德脉冲
数字技术的时间性本质上是反绵延的。即时推送、实时更新、无延迟反馈——信息技术的演进方向,就是不断缩短刺激与反应之间的时间间隔。当用户的注意力被转化为平台竞争的资源,平台的设计逻辑就是最大化刺激-反应的频率,最小化沉思与沉淀的可能性。
这种“实时性暴力”将道德时间的绵延压缩为离散的“道德脉冲”:我刷到一条求助信息,一秒内点赞或划过;我收到一次公益推送,点开看一眼然后关闭;我在评论区看到一条攻击性言论,被算法精准推送到情绪脆弱的时间点,于是冲动地回复。每一个道德场面的时间窗口被压缩到极致,来不及感受,必须先做出反应;反应之后立即进入下一个场面,来不及咀嚼、反思、追问。结果就是:道德行为依然存在(点赞、转发、短暂共情),但道德体验的质地被掏空了。
这解释了数字时代一种普遍而令人不安的现象:人们在线上可以频繁地表达善意的情感,但这些情感难以转化为持续的、包含代价的关怀行动。这不是虚伪,而是结构性的“时间性赤贫”——绵延的时间被脉冲化后,道德情感的深度与持久性失去了时间性的支撑。
3.3 数字共情的时间悖论
正是在这一背景下,数字共情的悖论性变得清晰。一方面,AI技术可以通过情绪识别、情感回应、个性化干预,在短时间内引发用户的共情体验。一个设计良好的AI心理陪伴系统可以在用户情绪低落的那一刻“在场”,打破孤独感;公益平台通过可视化叙事精准触达捐助者的情感开关,激发即时的捐赠冲动。
但从时间结构的角度看,这种“技术化共情”恰恰加剧了道德时间的脉冲化。因为AI的共情本身是没有绵延的——它不会因为“记得”某人的痛苦而在深夜辗转难眠;它的回应是由算法的实时计算决定的,而算法的计算不延展为持续的牵挂。当你习惯于AI提供的“即时共情-即时满足”模式,你对真实的、需要时间沉淀的道德关系的耐受度可能反而下降。
然而这并不意味着数字共情毫无伦理价值。其价值不在于“提供真正的共情”,而在于在拓扑距离日益扩大的数字空间中,制造出一种**时间性虽浅但拓扑性有效的“弱联结跃迁”——暂时性地绕过算法制造的离散化屏障,让人的良知与远方的他者产生一次短暂的、虽不持久但真实发生的情感联结。这种联结固然无法替代物理面对面的深层道德关系,但它至少在离散拓扑中打开了一道微弱的连通路径,使道德空间不至于完全退化为零散的孤点。
四、维度压缩:“技术人类”困境与列维纳斯的回响
4.1 知网文献的争鸣与交锋
近年来,国内学界围绕AI时代的道德共情问题形成了丰富的对话。喻学林、孙银光在《论“技术人类”的道德共情面临的挑战及教育应对》中提出了一个关键判断:科技的狂飙使人类从“自然人类”进入“技术人类”时代,而“技术人类”正在遭遇四种道德共情危机——共情式微、共情麻木、共情瓦解、共情隐退。他们将共情视为“人的本性”“人的情感生活的基本方式”,并将其与道德直接挂钩:道德共情能力是维系道德关系的基础性能力。
这一论述的价值在于,它将道德情感的衰退提升到“人类形态转变”的高度来审视,暗合了本文的“维度压缩”概念——技术不仅是工具,而是重新定义了人的存在方式本身。但该文的解决方案侧重于“技术伦理制度约束”与“教育培养”,在本文的分析框架中,这仍然是在离散化的道德空间内部进行修补,而未触及空间结构本身的改造问题。
杨慧、王艺霏的《数字社会中的道德空间:图景、拆解与重构》更接近本文的理论取向。她们将数字社会中道德空间的碎片化归因于“技术理性”——程序理性、微型理性与工具理性——对道德本真情感的抑制。她们提出的从“自我至他者”并经由“交互关系引向集体选择”的重构方向,与本文强调的“他者之痕”形成呼应,但她们的框架更多停留在社会理论与规范伦理的层面,而本文试图以拓扑学模型给出更形式化的刻画。
值得对话的还有国际学界关于AI道德决策缺陷的研究。心理学实验揭示的“道德赤字效应”——人们对AI不道德行为的谴责显著弱于对人类同类行为的谴责——为本文的“拓扑距离-责任衰减”假说提供了实证支持。此外,模拟情绪对道德行为影响的实验表明,即便明知对方是非感知的虚拟智能体,其情绪表达仍能显著影响人类的诚实行为。这一发现暗示着:离散拓扑并非完全不具道德效力,关键在于能否构造出有效的“情绪跃迁通道”。
4.2 一个分歧焦点与一个未被触及的问题
在既有文献的争鸣中,有一个分歧焦点尤为突出:AI能否/应否被视为道德主体?有学者主张赋予强AI以某种伦理地位,以防人类陷入对工具理性的绝对宰制。而心理学研究则暗示,人们倾向于将AI拟人化,赋予其一定程度的能动性与体验性,从而间接提升道德反应。但这条思路在列维纳斯框架中面临一个根本性困难:道德关系的源泉不是对方的“主体属性”,而是我对他者脆弱性的直接感知与接受。AI没有脆弱性,没有死亡,没有真正的痛苦——它不可能成为列维纳斯意义上的“他者”。因此,AI的伦理地位问题在本文看来是一个“伪焦点”,它分散了我们对真正问题的关注:不是AI有没有道德权利,而是AI作为中介如何重构了人与人之间的道德条件。
而一个未被既有文献深入触及的核心问题是:数字技术是否可能创造一种新型的道德空间,它不是复刻物理面对面,但在空域结构和时域性质上能够维持他者性的有效传递?这正是本文下一章要回答的问题。
五、形而上判断:他者之痕与道德奇点
5.1 空域-时域-维度三维断裂的统摄
前三章的论述可以被整合为一个三维断裂的模型:
空域断裂:道德实践的空间从“连续邻域”退化为“离散拓扑”,算法中介切断了面孔的直接呈现,责任的强度随中介节点数的增加而指数级衰减。
时域断裂:道德体验的时间从“绵延”压缩为“脉冲”,实时性技术将情感反应提速到无法沉淀的程度,共情的深度因时间维度的人为贫瘠化而被掏空。
维度断裂:人被他所创造的技术重新定义为“技术人类”,原本多维度的存在方式被压缩为“用户-数据”的单一维度,道德在这一维度中被还原为可计算的合规行为。
三重断裂并非孤立的,而是相互共振、彼此强化的。空域的离散化加速了时间脉冲化——因为在中介节点增多的环境中,每一次连接都变得更加短暂和表层化;时间脉冲化又加固了空域离散化——因为没有绵延的联结不会生长出新的网络,只会强化已有的算法匹配模式;而这两个过程共同导致了人的存在维度的压缩,使我们越来越难以把自己理解为比“信息处理单元”更多的东西。
支撑这一判断的,不仅是列维纳斯的哲学洞见,也有实证研究的基础。道德赤字效应的实验表明,当参与者感知到决策者具有更低的“能动性”与“体验性”时,其道德反应强度显著降低。在空域断裂的环境中,他者的能动性与体验性往往被数据化遮蔽,这正是拓扑距离拉大带来的感知维度压缩。模拟情绪实验则表明,即使是虚拟智能体的面部表情,也可以通过“社交存在感”的激活影响人的道德行为——这意味着如果设计得当,数字空间仍可以保留一扇通往他者性的窗口。
5.2 良知作为不可算法化的“道德奇点”
在物理学中,奇点是指物理定律在某一特定条件下失效的点——所有的方程都不再适用,已知的规则无法描述奇点处发生的事。借用这个隐喻,良知正是人类道德实践中的“奇点”:它不是任何算法可以逼近的函数,不是任何规则可以推导的结论,不是任何数据训练可以复现的模式。
良知作为一种“奇点”,有三个不可归约的特征:
其一,不可编码性。良知的发生是对具象他者脆弱性的直接回应,这种回应无法通过“特征提取→模式匹配→行为输出”的算法框架来模拟。算法的输出是已有数据的函数,而良知的回应常常超出所有既往经验——“我必须为他做这件事,虽然我从未遇到过类似的情境,虽然没有任何规则要求我这样做”。
其二,无限责任性。列维纳斯所说的“无限责任”,其结构类似于数学奇点附近函数的发散行为:责任向着无限增长,没有可以停下来的界限。任何算法都有一个确定的目标函数,它必然在某个优化点停止。良知的“无限性”不是程度的夸张,而是结构上的不可收敛。
其三,前反思的直接性。良知的发生先于理性的权衡。孟子所说的“乍见孺子将入于井”正是这种前反思的直接反应——它不是推理的结果,而是触发后的瞬间涌现。算法永远在“思考”之后才“行动”,而良知在某种意义上是不经思考的——它的速度比算法更快,因为它跳过了计算的环节。
这就导出一个重要的人机分工原则:AI可以参与道德实践的辅助环节(信息呈现、情境感知、行动执行),但绝不能替代良知在道德判断中的核心位置。 数字道德空间的设计,不是要让算法变得“更有道德”,而是要为良知的发生腾出足够的不被算法侵占的空间和时间。
5.3 “他者之痕”理论模型的构建
统合空域、时域与维度三重分析,可以提“他者之痕”理论模型,作为AI时代道德本体论的核心概念。
“他者之痕”是一组形式化的概念,包含三个组分:
痕源:他者向我呈现其脆弱性的原初印记——面孔的表情、声音的颤抖、言语中的恳求。这是拓扑邻域中的一次“信号触发”。
痕载:这一印记在何种介质中被编码、传递与保存。物理面对面的痕载是身体性在场;数字空间的痕载是屏幕像素、音频信号、文本字符。痕载的不同决定信息衰减的程度。
痕响:我在良知层面上对这一印记的回应——不安、牵挂、愧疚、行动的冲动。痕响不能被程序化规定,但它会因痕载的质量而有所强弱变化。
在这一框架下,AI时代的道德困境可以重新表述为:数字介质作为一种痕载,其特有的衰减率使得痕源难以有效触发痕响。但反过来,优化痕载设计——比如去匿名化呈现他者面孔、构造产生情绪跃迁的交互场景——则可能降低衰减率,即便在不连续的拓扑结构中也能维持起码的道德效能。
“他者之痕”理论也规定了道德重建的边界。数字共情技术具有真实的伦理价值,前提是它帮助真实的他者的痕迹穿越拓扑屏障抵达我,而不是用一个虚构的、没有真实的脆弱性的数字拟像来制造“被关爱的错觉”。前者是痕载的优化,后者是痕源的伪造——后者创造的不是道德联结,而是道德幻象。
5.4 可验证的假说与预测
本文提出的框架不仅是一种哲学阐释,也给出可验证的预测:
假说一(空域衰减):在AI中介程度越高的道德决策场景中,个体体验到的良知不安感越弱,承担责任的意愿越低。此效应可通过实验比较“直接面对面-视频中介-AI摘要-纯数据呈现”四种条件下的道德反应差异来检验。
假说二(时域脉冲):当道德场面的呈现时间被压缩到临界值以下,个体的反应倾向从“关怀行动”转向“符号化表态”。可通过控制刺激材料的呈现时长与信息量来检验时间维度与反应类型之间的关系。
假说三(痕载优化):在数字空间中增加可感知他者面孔的“痕载质量”(如呈现真实情绪故事、去匿名化设计),可以部分补偿空间离散化带来的责任衰减。此假说已在公益平台的可视化叙事实践中获得初步支持,后续可进行更严格的控制实验。*(重点,实验设计)
六、结语:在算法丛林中留下他者的痕迹
本文的论述至此可以被凝缩为一个简洁的判断:AI时代道德重建的核心,不是在技术层面设计更完备的伦理算法,而是在空域上构造可承载他者痕迹的联结结构,在时域上抵抗体验的脉冲化,在维度上守护那不可被技术压缩的人的丰富性。
列维纳斯给了我们一个起点:道德始于面孔与面孔的相遇。技术时代将这副面孔藏在了屏幕背后、数据之下、算法之中。任务不是抛弃技术,而是在技术构造的新大陆上,让那副被遮蔽的面孔重新被看见,让他的痕迹穿越光纤与服务器抵达人心的深处。因为只有在那里,良知才能发生它最初也是最后的觉醒——它不是对规则的遵守,不是对算法的顺从,而是在看到另一个人的那一瞬间,知道自己亏欠了他,并且,没有理由。
参考文献
[1] 论人类与人工智能的伦理关系——基于列维纳斯的他者理论视角[J]. 甘肃理论学刊, 2024(06).
[2] HU Xiaoyong, LI Mufeng, LI Yue, et al. Moral deficiency in AI decision-making: Underlying mechanisms and mitigation strategies[J]. 心理学报, 2026, 58(1): 74.
[3] ABBASIAN H. The future of digital empathy: From detection to dignity[J/OL]. The BMJ, 2026-04-07.
[4] 杨慧, 王艺霏. 数字社会中的道德空间:图景、拆解与重构[J]. 中国特色社会主义研究, 2024(1).
[5] SIAU K, NAH F, ESCOBAR C, et al. AI Ethics: Bibliometric analysis, key issues, and research gaps[J/OL]. ScienceDirect, 2025-08-25.
[6] 李建华, 刘畅. 道德空间:内涵、维度与建构[J/OL]. 武汉大学哲学学院, 2021-09-08.
[7] Simulated emotional reactions affect (dis)honesty in speech-free human–agent interactions[J/OL]. ScienceDirect, 2026-03-30.
[8] 喻学林, 孙银光. 论“技术人类”的道德共情面临的挑战及教育应对[J]. 湖北社会科学, 2025(5).
[9] 杨慧, 王艺霏. 数字社会中的道德空间:图景、拆解与重构[J/OL]. Napstic.
[10] WEIDENER K, SPRINGER-KREMSER M, LOOTS G, et al. An overview of AI ethics: Moral concerns through the lens of principles, lived realities and power structures[J/OL]. AI and Ethics, 2026, 6: 121.
夜雨聆风