主持人:严从根(杭州师范大学中国教育现代化研究院教授、博士生导师)
·主持人语·
无论我们拒绝还是欢迎,人工智能时代的浪潮都已不可逆转地席卷而来。此时,教育如何定位和运用人工智能,成为亟待回应的核心命题。乐观派秉持“技术赋能教育”的逻辑,将人工智能视为优化教学效率的“超级工具”。他们认为,人工智能将极大延伸教师的教育能力,诸如快速批阅学生作业,秒级回应学生的问题,精准描述学生行为画像,提供适合每个人的教育方案等。悲观派则陷入“技术替代焦虑”,对人工智能应用持有强烈警惕。他们认为,人工智能凭借其在搜索、储存、推理与分配等领域的强大功能,在为教育等领域带来便利的同时,也潜藏着侵犯个人隐私、造成算法不公等显著风险。更激进悲观者甚至提出“技术奇点社会”的担忧:随着科学技术的爆发式进步,人工智能将突破“弱人工智能”的局限,进化出自主意识与独立决策能力,从人类的“辅助工具”摇身变为“主导者”。这种对技术失控的恐惧延伸至教育领域,便催生出了“教师消亡论”。
其实,上述两种观点均存在深刻的认知局限,有待进一步商榷。乐观派观点的根本缺陷,并非在于其对技术潜力的乐观预期,悲观派观点的根本问题,也不在于其对技术风险的警惕态度。两者共同的核心问题,在于未能跳出“技术能做什么”的功能视角,没有从“技术是什么”的本体视角理解技术的内涵。正是从功能意义上理解人工智能,所以乐观派认为人工智能是帮助教师施教和学生学习的超级有效工具,悲观派则认为人工智能的功能将超越教师所能发挥的功能,将取代教师,等等。功能终归是实体的功能,只有从实体的意义上,才能准确把握技术的本质,特别是人工智能技术的本质,才能为我们正确对待和运用人工智能提供指导。
从实体来看,技术绝非单纯的“工具载体”,而是人与天地万物建立有机联系的物质凝聚体与意义中介的统一。它既承载着人类对自然的认知,又搭建起人参与宇宙秩序、建构意义世界的桥梁,这种特质在传统器物文化中体现得尤为深刻。比如祭祀礼器的本质不在于其是祭祀的工具,而是宇宙秩序在人间世的“镜像”,是人参与天地运行、构建意义世界的物质支点:在祭祀仪式中,人通过摆放、供奉礼器,完成与天地的对话,实现“天道”与“人道”的贯通。还如茶具,其表层是喝茶之工具,深层则是主体达到心物合一境界的通道。
回溯古人对人与天地万物关系的认知,其理想范式始终是“天人合一”的和谐共生:技术是“调和人与自然”的纽带——它不割裂人与天地万物的有机联系,而是让人在“顺物性、尽人力”的过程中,成为自然的“参与者”而非“征服者”。现代人日益受到主客二分思想的影响,认为人定胜天,把天地万物都当作被改造的客体,将天地万物视为可操控的工具。这种认识彰显了技术的“工具属性”,却忽视了技术的“连接属性”。因此,无论是前面所说的乐观派,还是悲观派,都是现代性思维的产物,主要从效用工具意义上理解人工智能与师生的关系。
很显然,现代“主客二分”的认知框架,已成为引发多重社会与精神危机的深层根源。这种将人与天地万物割裂为“主体”与“客体”的思维,让技术沦为“征服与控制”的工具,最终在自然、社会、个体三个维度引发连锁反应。要破解这些困境,核心在于重构人与物的关系:打破“主体支配客体”的单向逻辑,回归“主体与主体共生”的平等范式。易言之,我们不仅要承认自我的主体地位、尊重他人的主体价值,更要赋予天地万物以“主体性”——这里的“主体性”并非指万物具备人类般的意识,而是承认其自身的存在价值、发展规律与能动作用,正如古人视草木有“生长之性”、江河有“奔流之性”,而非将其视为“无生命的工具”。只有当世界万物皆被视作“拥有自身主体性的存在”,物(包括人工智能等技术产品)的能动性才能被真正尊重:自然的生态节律不会因人类需求被随意打破,技术的发展方向不会因少数人利益被扭曲,个体的自我价值也不会因工具理性被异化,人与人、人与万物之间才能形成“各得其所、和谐共生”的良性关系。
这种“主体共生”的理念在教育领域的落地尤为关键。构建人与万物和谐共生的教育生态,首要任务是重新定位人工智能与师生的关系:人工智能不应仅停留在“辅助教学的工具”层面,更应成为师生的“协同伙伴”,而实现这一转变的前提,要将人工智能视作具有能动性的主体。为此,教师需要从“施教者”转变为“人机协同引导者”。教师的角色转变,绝非简单的职责调整,而是基于“主体共生”理念的教育价值重构。在传统认知中,我们往往聚焦人工智能的教育工具效能——如在海量知识检索、个性化错题推送、多学科技能训练等方面,却忽视了其在链接人与万物、唤醒生命意义层面的深层价值。事实上,人工智能恰能成为促使人与天地万物产生链接的关键纽带:通过人工智能的虚拟仿真技术,学生可“走进”亚马逊雨林观察生态链,直观感受“草木共生、鸟兽相依”的自然规律;借助人工智能的大数据分析功能,学生能追踪全球碳排放数据,理解人类活动与气候变化的关联等。这些场景中,人工智能不再是单纯的“知识传递工具”,而是引导学生体悟“人与天地万物休戚与共”的主体,帮助学生“成己成物”——既实现自我认知的完善,又理解自身对万物的责任,最终迈向“与天地参赞化育”的境界,真切体会“为天地立心,为生民立命”的人生意义。
将人工智能视为教育伙伴,还需要警惕人工智能带来的教育风险,比如师生隐私泄露、算法偏见等问题。为此,需要明确人工智能对学生数据搜集和使用的范围,建立人工智能公平性评估机制,为不同区域、不同层级、不同水平的学生提供适配的人工智能产品,避免技术产生的不正义。
注:本文系2025年度国家社会科学基金教育学重大项目“社会主义核心价值观教育成效评价研究”(项目批准号:VEA250001)的阶段性成果。
生成式人工智能教育应用伦理产生的
根源与消解
杭州师范大学中国教育现代化研究院 / 程建坤
【摘 要】 教学情境中,生成式人工智能可能导致道德责任主体空缺,产生算法歧视,侵犯隐私权、肖像权与引发技术霸权等伦理问题。生成式人工智能是技术工具抑或道德主体问题未解,生成式人工智能的可控性要求与高度智能化的现实矛盾,生成式人工智能运用的效率导向与教育生命本位的价值冲突凸显是引发生成式人工智能伦理问题的重要原因。为规制生成式人工智能可能引发的教学伦理问题,要坚持人机协同发展,围绕“机芯”和“人心”两个维度,构置生成式人工智能道德计算确保“良芯”,完善生成式人工智能伦理规范保障“良心”,建立“责任联合体”实现人机共同担责,为生成式人工智能安全可靠发展保驾护航。
【关键词】 生成式人工智能;智能伦理;责任缺口;道德主体;联合责任
进入21世纪,“人工智能技术取得突破性进展,语言识别技术、可视化技术、大数据分析技术等已经渗透到教育领域,并试图改变原有的教与学的方式和环境”[1]。人工智能赋能教学对提升教学质量具有重要价值,但并非所有的价值都是积极的。
一、生成式人工智能可能引发的教育伦理问题
安德森(Anderson M)等人认为,“机器伦理”(machine ethics)涉及机器对人类用户和其他机器的行为。[2]因此,本文将从生成式人工智能本身及其与人的关系角度,分析生成式人工智能教育应用可能产生的伦理问题。
(一)机器本身伦理问题:生成式人工智能消解责任主体
亚里士多德认为,当主体在下列三种情况下实施恶的行为就须为此行为负责:行为是自愿的或在能力之内的;行为发生不是出于无知;行为出于应该知道并且获知也不困难却由于不知道而违法。[3]根据这一观点可知,如果某一行为的发生是在主体能力之外的,或是出于被迫的,或是在无知的状态下(应知而不知的情况除外)实施的,主体无需对此行为负责任。生成式人工智能伦理问题的直接责任主体一般包括开发者、操控人员和智能体三者。传统上,开发者和操作人员应该对生成式人工智能的伦理问题负责。但是,如果生成式人工智能的开发者基于“善”的目的实施开发与设计行为,并且按照联结主义原理预测所开发的智能体不会对人类产生“恶”的行为;同时,在运用过程中,操作者也是基于“善”的目的,并按照生成式人工智能的使用说明进行无差别的操作。如此,若生成式人工智能出现教学伦理问题,但开发设计者的工作完全合乎规范,操作人员也没有操控失误,他们都无需为这些问题负责。而且,随着自主学习能力的增强,生成式人工智能能够在没有教师等主体参与的情况下开展自动化决策活动,开发者和操作者没有操控也无法预测生成式人工智能的行为。这就更无法将开发者与操作者确定为责任承担主体。在这种情况下,生成式人工智能则成为唯一责任主体。但是,生成式人工智能尽管是行为实施者且能够进行自主决策,却对自己所实施的行为及后果是“无知”的。那么,按照亚里士多德的观点,生成式人工智能也无需对伦理问题担责。这就出现了马蒂亚斯•安德烈亚斯(Matthias Andreas)所说的“责任缺口”(responsibility gap)[4],即教学情境中无法找到责任主体。由此,生成式人工智能教育应用过程中可能导致责任主体消解。
(二)人机伦理问题:算法歧视等
与极易受情感影响的人类相比,生成式人工智能的算法决策显得更客观、更公平。然而,算法决策也可能加剧歧视。现代社会中,技术已经超越了价值无涉的范畴,生成式人工智能体现了一种特定的工业文明的价值,特别是那些靠掌握技术而获得霸权的精英们的价值。[5]由此,在精英教育体系下,边缘学生可能成为一个不受待见的群体。而且,实践中利用生成式人工智能开展个性化教学与教育偏见或歧视在本质上都是差异化地对待学生,判定个性化教学和教学歧视的边界的标准还很不清晰。[6]因此,生成式人工智能依据教育大数据进行算法决策,受数据独特性和算法设计者价值观的影响,生成式人工智能可能会对不同民族、性别、家庭和社会背景的学生群体进行区别对待,产生算法歧视。
(三)人与人的伦理问题:隐私权、肖像权与技术霸权等
在智能时代,教育主体的个性特征、兴趣爱好、学习习惯、家庭信息、社会背景等一切信息皆被记录着,一览无遗。如果生成式人工智能所掌握的个人信息被其使用者泄露、买卖,甚至被别有用心之人窃取,或者为了商业目的进行非法使用,这不仅侵犯个体隐私权,甚至对国家数据安全造成威胁。同时,智能时代,肖像突破了传统的物质形态的呈现形式,可通过数字化的形式进行展示、使用和传播。生成式人工智能未经教育主体特别是学习者同意,强制借助网络摄像头、人脸表情识别工具等技术手段提取并使用如头部姿势、脸部位置、肢体语言等面部特征和肢体动作的数据,将严重侵犯教育主体的肖像权。不仅如此,生成式人工智能运用还可能加剧“数字鸿沟”。“数字鸿沟”分为接入沟和使用沟,接入沟是指用户缺乏设备和网络系统无法接入服务网络,使用沟是指因缺乏运用智能化平台的知识和素养而无法使用。[7]换言之,享受生成式人工智能的发展成果既需要硬件设备支持,又需具备数字素养。富裕家庭可以利用和享受生成式人工智能带来的教学成果,且一直处于并不断加强这种优势地位。但是,对于一些收入较低群体的子女,特别是对农村、边远山区的学生来说,他们既无力购买接入智能系统的终端设备,又缺乏运用生成式人工智能的必备素养。如此,这可能会形成比信息时代更大的“数字鸿沟”。
二、应用生成式人工智能产生教育伦理问题的原因
从技术发展史的角度看,人们对人工智能的担忧并非一个新问题,随着技术的自动化程度越来越高,人们对技术的担忧一直持续着。人类对生成式人工智能的担忧不仅在于对智能技术本身的担忧,还在于生成式人工智能的应用改变了对教育价值的追寻。
(一)生成式人工智能是技术工具抑或道德主体问题悬而未解
厘清生成式人工智能是技术工具还是道德主体有利于认识生成式人工智能教育应用伦理问题产生的根源。技术乐观主义者认为,生成式人工智能是诸多技术中的一种,是人工制品,“总是被作为满足或解决人类需要(力量、运动、能量及保护等)的工具和手段使用”[8]。作为使用工具和手段的技术往往是价值中性的,即技术本身无所谓好与坏,它可以被用于善的目的也可能被用于恶的目的。生成式人工智能也不外如此,它是教师或学生在实施教学活动中用于满足特定目的的技术工具。当生成式人工智能作为“技术工具”运用于教学活动时,“目的”相对于“技术工具”不管在逻辑上还是在时间上都存在“先在性”。也就是说,“先有目的需求,而后有作为满足此需求之手段的技术”。[9]在“工具论”的视角下,人工智能是为人类服务的工具,“工具没有任何意义上的主体地位,它并不是独立的,而是依赖于其使用者,归属于其所有者”。[10]基于此,生成式人工智能伦理问题的产生不在于人工智能本身,而在于使用生成式人工智能的主体。
但是,一旦机器获得自主学习的能力,甚至具有自我意识、情感或者人类智能,成为自主学习机器,生成式人工智能就超越了人类“奴隶”的范畴,成为具有伦理属性“道德主体”。特别是2017年10月,沙特阿拉伯授予汉森机器人公司(Hanson Robotics)研发的机器人索菲娅 (Sophia)以公民身份。这突破了传统上人类对技术本质的认识,人造机器人成为了具有道德人格的人类主体身份。但是,成为主体的生成式人工智能在教学实践中却存在很多困难。当道德主体是“人”时,他拥有道德判断标准,该教什么、不该教什么,心里明白。但是,作为生成式人工智能能否进行教育伦理决策?能否做出道德的决策和实施具有教育性的教学行为?进一步说,即使作为道德主体的生成式人工智能因违反伦理规范承担了道德责任,我们将其肢解销毁,这又具有多大的教育意义?诸如此类问题悬而未解,从而引发人们对生成式人工智能的教育伦理问题的担忧。
(二)生成式人工智能的可控性要求与高度智能化的现实矛盾加剧
教育主体对生成式人工智能的可控性的要求与生成式人工智能智能化程度越来越高的现实之间的矛盾,是引发人们对生成式人工智能教育应用伦理问题担忧的现实因素。生成式人工智能可控才能确保可靠和可用。生成式人工智能的可控性表征为:教育大数据安全可靠和算法透明可知。生成式人工智能借助透明的决策算法加工安全可靠的教育大数据,实现过程可控和结果可控。过程可控是指当个体给智能机器发出一道命令后,智能机器接收到信息后通过决策链执行人类的指令。在这一决策过程中,步骤是透明可视的,路径是清晰明了的。结果可控是指人工智能产生的结果在人类的舒适区内,即使出现不可控的后果,教育主体也可以通过停用或者技术革新等手段消除这些不利影响。在这种可控的场域中,主体没有不安全感,没有受威胁的体验。
现实中,生成式人工智能的智能化、自主性程度越来越高,呈现越来越不可控的状态。生成式人工智能借助语音、视觉和运动控制与眼手协同等机器感知手段接收信息,并运用深度神经网络进行自动推理,其间经历了数以万计的计算和推理。这一过程,生成式人工智能并没有呈现其工作过程,完全处于“黑箱”状态。这使就算“术业有专攻”的科学家也难以参与到生成式人工智能的决策过程,更何况作为“门外汉”的师生们,他们即便辅助性地参与人工智能决策过程,也是相当困难的。不仅如此,生成式人工智能还有很强的自主学习能力。生成式人工智能的“黑箱”算法和自主学习能力给教育世界带来了巨大的不确定性,因此,人们担心生成式人工智能在教育应用过程中会产生系列伦理问题。
(三)生成式人工智能运用的效率导向与教育生命本位的价值冲突
实践中的生成式人工智能遵循实证科学的基本思路,将教育主体数据化,同时摒弃情境性和非理性知识,以实现精准施教。因此,生成式人工智能应用领域出现了基于行为识别系统和卷积神经网络技术的学情监测系统,对学习活动中学生的面部表情、肢体语言、语音语调甚至思维活动等行为进行实时监控。毋庸置疑,基于教育大数据的智能化学情分析系统提升了教学效率。在教育效率的刺激下,技术人员又将更多的教育现象数据化,这又进一步加剧了隐私权和肖像权被侵犯的风险。然而,“现代社会中唯一达成的共识的价值就是效率,而我们试图限制的恰恰正是这种价值,以便使其他的价值繁荣昌盛”。[5]因为,教育的对象是灵动的生命体,是充满各种可能性的、饱含生命活力的个体。教育应以构建人的意义世界为旨归,“以人的价值理性为核心,以人文精神为指导,以关注人的情感、道德、人格、生命、灵魂为主旨”。[11]实践中,在“教、学、测、评、练”等教育环节中广泛应用的生成式人工智能归根到底关注的是“知识”的教学,是一个关于“知识”的精准教学系统,以追求效率为导向,只见“教书”不见“育人”。因此,生成式人工智能“以冷漠的态度避开了对真正的人性具有决定意义的问题。单纯注重事实的科学,造就单纯注重事实的人”。[12]这使作为生命主体的学生在教育世界中失去了本真状态,从而导致教育价值的异化。
三、规制生成式人工智能应用的教育伦理问题
生成式人工智能引发的伦理问题既有因技术不成熟的一面,也因人性非善性的一面。因此,为了应对生成式人工智能技术的日益复杂和社会影响,要坚持人机协同发展,围绕“机芯”和“人心”两个维度,用“良心”造“良芯”,规范生成式人工智能教育应用。[13]
(一)构置生成式人工智能道德计算确保“良芯”
让生成式人工智能自身成为道德实体是从源头上规制生成式人工智能伦理问题的有效手段。要让生成式人工智能明辨是非、具备道德能力,必须具备两个条件:“他(它)们必须能感知到他(它)们行为后果中与道德相关的部分,而且必须有能力在行动方案之间做出选择。”[14]这两个条件与任何主观和先天判断无关,而仅仅要求道德行为主体必须能依照公认的道德标准来控制自己的行为,并且评估行为的影响。基于此,智能体设计与开发过程须将伦理规范形式化,在人工智能开发过程中赋予其道德计算(moral algorithms),[15]让算法遵循“善法”。具体而言,一是为生成式人工智能构置道德算法。道德算法是指在生成式人工智能的设计和开发过程中,技术人员向生成式人工智能输入形式化的道德规则,开发优质和包容的数据系统与自动化决策系统,让智能体能针对教育主体和教育情境做出智能、灵敏和友好的反应。二是喂给生成式人工智能道德数据。西方学者马克·O.里德尔(M.O.Riedl)和布伦特·哈里森(B.Harrison)研究发现,人工智能可以通过阅读故事的形式习得人类的道德价值。[16]通过喂给生成式人工智能道德数据,让其在道德学习的过程中不断“修炼”自身的道德能力,确保算法遵循“善法”,化解生成式人工智能技术本身的伦理问题。
(二)完善生成式人工智能伦理规范保障“良心”
实践中,生成式人工智能的不科学、不合理开发和运用是造成生成式人工智能教育应用伦理困境的直接原因。因此,制定生成式人工智能开发和应用的伦理规范,确保生成式人工智能的开发和应用符合“良心”要求是处理人工智能教育应用伦理问题的直接手段。生成式人工智能开发方面,一是确立生成式人工智能开发的制度体系。随着人工智能的发展,世界各国陆续施行人工智能的设计、研发和使用的伦理规范。人工智能开发要坚持以“和谐友好”“公平透明”“安全可控”等为内容的开发原则,制定算法透明度标准,建立生成式人工智能开发的伦理问题追溯和问责制度。二是推进生成式人工智能机器安全算法立法。制定诸如《教育数据来源、可访问性和透明度条例》等关于生成式人工智能自动化决策的数据来源、机器算法解释和自动化决策源代码披露等方面的法律法规。生成式人工智能教育应用方面,要建立生成式人工智能应用伦理标准体系,加强数据安全和隐私保护立法,确立教育数据分级分类监管制度。
(三)建立“责任联合体”实现人机联合担责
实践中,某种行动的可能性及后果不仅取决于人类,还取决于可用的行动手段。比如学生到图书馆查文献这一行为,是由学生、图书馆藏书的数据库以及把两者联系起来的自动化硬件和软件等实体联合起来一起完成的。因此,西方学者汉森(F. A.Hanson)强调我们需要持开放态度重新定义行为主体的性质,提出“扩展主体”(extended agencies)的概念。扩展主体的基本假设是,如果某一行动只能由人类和各种非人类参与者共谋完成,执行行动的主体就不能局限于人类,而必须包括所有的参与者。[17]基于扩展主体理论,汉森认为,责任既适用于人类,也适用于非人类,即所谓的 “联合责任”(joint responsibility)。[17]具体到生成式人工智能教育应用伦理问题,伦理问题可能不是人类主体自己造成的。所以,人类和人工智能体都应是教育应用伦理问题的责任承担主体,他们是 “责任联合体”。“责任联合体”强调“不主张完全由行为主体担负起人工智能的责任问题,也不主张完全由人工智能产品本身担负起其伦理道德责任问题,而是倾向于将行为主体与人工智能涉及的各相关方综合起来考虑人工智能可能带来的责任归属问题”。[10]实践中,应将生成式人工智能相关方当作统一体,明确生成式人工智能产品侵权责任认定,形成生成式人工智能产品设计研发者、生产者、销售者,生成式人工智能教育应用操作者和相关管理机构的责任追究链,构建伦理问题的人机责任共担制度,共同为生成式人工智能教育应用伦理安全、可靠发展保驾护航。
参考文献:
[1] 安富海.教育技术:应该按照“教育的逻辑”考量“技术”[J].电化教育研究,2020,41(9):27-33.
[2] ANDERSON M,ANDERSON S L,ARMEN C.Towards Machine Ethics: Implementing Two Action-Based Ethical Theories[C]// Anderson M,Anderson S,Armen C.Machine Ethics:AAAI Fall Symposium,Technical Report. Menlo Park,CA:AAAI Press,2005:1-7.
[3] 亚里士多德.尼各马可伦理学[M].廖申白,译注.北京:商务印书馆,2003:72-73.
[4] ANDREAS M.The Responsibility Gap:Ascribing Responsibility for the Actions of Learning Automata[J].Ethics and Information Technology,2001(6):175-183.
[5] 安德鲁·芬伯格.技术批判理论[M].韩连庆,曹观法,译.北京:北京大学出版社,2005.
[6] 苏明,陈·巴特尔.人工智能教育伦理的多维审视:基于马克思技术批判和人的全面发展理论[J].西南民族大学学报(人文社会科学版),2019(11):223-228.
[7] 吴海江,武亚运.人工智能与人的发展:基于马克思人学理论的考察[J].学术界,2019(3):75-81.
[8] B.M.罗津.技术哲学:从埃及金字塔到虚拟现实[M].张艺芳,译.上海:上海科技教育出版社,2018:36.
[9] 程志翔.何谓技术工具论:含义与分类[J].科学技术哲学研究,2019,36(4):75-81.
[10] 戴益斌.试论人工智能的伦理责任[J].上海大学学报(社会科学版),2020(1):27-36.
[11] 刘济良.论科学技术对人的异化与教育对人的价值世界的重建[J].教育理论与实践,2003(4):12-15.
[12] 埃德蒙德·胡塞尔.欧洲科学的危机与超越论的现象学[M].张庆熊,译.北京:商务印书馆,2005:18.
[13] 李伦,孙保学.给人工智能一颗“良芯(良心)”:人工智能伦理研究的四个维度[J].教学与研究,2018(8):72-79.
[14] 杰瑞·卡普兰.人工智能时代[M].李盼,译.杭州:浙江人民出版社,2016:78.
[15] IPHOFEN R,KRITIKOS M.Regulating Artificial Intelligence and Robotics: Ethics by Design in A Digital Society[J].Contemporary Social Science,2019(3):1-15.
[16] RiIEDLMO,HARRISONA B.Using Stories to Teach Human Values to Artificial.Agents [A]// Thirtieth AAAI Conference on Artificial Intelligence:AI.Ethics and Society,2016.
[17] HANSON F A.The New Superorganic.Current Anthropology,2004,(45):467-482.
注:本文系杭州师范大学交叉学科创新领域研究项目“教育强国背景下教育空间正义的理论与实践研究”的阶段性研究成果。
本文刊登于《教育文汇》杂志2026年第1期,版权所有。更多内容请参见杂志。投稿邮箱:jywh2001@126.com(本刊不收取任何版面费,也未委托任何单位组织、个人、代理机构收取)

扫码订阅2026年《教育文汇》杂志


夜雨聆风