编者按
2026年3月7日,2026中国数字经济发展和治理学术年会(重庆)在西南政法大学成功举办。本届学术年会以“数字经济时代的发展、安全与治理”为主题,旨在深入贯彻落实党的二十届四中全会关于数字中国建设的战略部署,围绕统筹发展和安全、完善数字治理体系等重大议题开展基础性、理论性和前瞻性研讨。年会邀请20余位国内数字经济领域顶尖专家和业界代表齐聚山城重庆,共议数字经济时代的发展机遇、安全挑战与治理创新。国内40余所高校的研究人员、数字经济产业相关的科研机构及企业代表共300余人参加会议。
北京大学法学院教授、AI安全与治理中心主任张平发表题为《AI时代新秩序:科技伦理治理规则与实践》的主旨演讲。本文根据张平教授现场发言内容整理。

张平发表主旨演讲
尊敬的林校长、江小涓教授,各位老师、同学们:
大家好!
结合本次主题,我就人工智能科技伦理问题作一下讨论。在数字治理与人工智能治理的整体框架中,安全始终是首要议题,而在安全问题之中,伦理问题又居于核心位置。正因如此,当前已逐渐形成一种较为普遍的共识,即人工智能的发展应坚持“伦理先行”。只有首先明确并坚守伦理底线与红线,才能为人工智能的健康、有序和可持续发展奠定基础。这也正是我今天所要讨论的主要内容。
具体而言,人工智能伦理问题可以从若干层面展开分析。首先,有必要考察全球人工智能发展过程中已经形成了哪些具有代表性的伦理共识;其次,需要进一步观察中国在人工智能伦理治理方面的制度实践与现实探索。同时,还应当看到,与法律规范相比,伦理规范并不具备同等程度的体系化、逻辑化和成熟化特征。伦理更多体现为一种价值判断标准,其运行往往依赖于企业自律、行业规范以及社会道德共识,而非完全依赖刚性的制度约束。
在讨论人工智能、大模型以及智能体的伦理治理时,一个关键问题在于明确哪些边界不可逾越。相较于从正面完整界定“何为可行”,从反面识别“何为不可行”往往更具现实操作性。因此,可以借助“负面清单”或“黑名单”的方式,对人工智能可能引发的失范、作恶或不当使用情形进行识别与归纳。在此基础上,再进一步考察我国现阶段人工智能伦理审查机制的制度安排、运行逻辑及其完善方向。
在此,先从人工智能治理的国际共识切入。当前,无论是在联合国层面,还是在各主要国家尤其是欧美国家的政策与规范文件中,均已逐步形成一种文本意义上的共同表达,即以“以人为本、智能向善”作为人工智能伦理治理的基本原则。这表明,人工智能的发展应当以人的价值、尊严与福祉为中心,并以促进社会整体利益和文明进步为目标。不过,需要进一步指出的是,“人”与“善”本身并非内涵完全确定、外延绝对统一的概念。不同国家基于其制度传统、文化背景与治理需求,对于“以人为本、智能向善”的具体理解和制度落实路径并不相同。因此,在考察这一国际共识时,仍有必要对其内部构成进行更为细致的分析。
在这一意义上,国际标准化组织等相关规范文本所呈现的人工智能伦理要求,大体可以概括为六个方面。其一,可信。所谓可信,强调人工智能系统应当在整体上具备可被人类信赖的属性。这种信赖并非单纯的主观感受,而是要求系统自算法设计、数据来源、模型训练到部署运行的全过程均处于可验证、可审视和可接受的状态。换言之,人工智能之所以“可信”,并不只是因为其输出结果看似合理,而是因为其形成过程本身具备基本的规范正当性与技术稳健性。
其二,可靠。可靠主要指向人工智能系统在安全层面的技术保障与制度支撑。它要求相关主体不仅应在技术上采取必要的安全措施,降低系统失误、滥用与风险扩散的可能性,而且还应在制度层面建立相应的安全管理规范,并通过教育培训、操作规程和内部治理机制提升整体安全能力。因此,可靠并不只是技术意义上的稳定,更是一种融合了技术安全、制度安排与组织能力建设的综合性要求。
其三,可控。可控意味着人工智能的发展与运行不能脱离人的主导与约束,而应始终处于人类设定的目标边界和治理框架之内。其核心不在于否认人工智能系统在特定任务中的自主性,而在于强调这种自主性不得演变为脱离人类意志、无法被有效干预的失控状态。尤其在人工智能能力持续增强的背景下,关于系统失控、目标偏离和自主扩张的担忧不断加深,“可控”因此成为人工智能伦理治理中最具基础性的要求之一。
其四,可解释。可解释主要是指人工智能系统应当在一定程度上满足透明度要求,使其算法逻辑、决策过程及相关数据来源能够被理解、审查和说明。只有在此基础上,使用者、监管者以及社会公众才可能对人工智能的行为作出评价并形成信任。不过,也应看到,可解释性虽然已成为国际上较为普遍认可的原则,但其在实践中仍面临显著困难。特别是在高复杂度模型和大规模数据训练条件下,过度强调透明度与完全可解释,可能会对技术创新、系统性能及产业发展形成一定制约,因此这一原则在现实适用中始终存在阻碍。
其五,可溯源。可溯源强调人工智能系统全生命周期中的各个环节均应当具备清晰的责任链条与参与主体识别机制。从软件开发者、算法工程师、模型训练者,到平台运营者、场景部署者、最终使用者,再到相关硬件设备制造单位,不同主体在人工智能系统生成、运行与应用过程中所承担的功能并不相同。只有对各环节参与者进行明确识别,才能在风险发生、损害出现或争议产生时,准确追踪问题来源,并为责任认定提供基础。
其六,可问责。可问责是上述各项要求在法律与制度层面的最终落实。其核心在于通过立法、监管和责任机制的建构,明确不同主体在人工智能活动中的义务范围、责任边界及违法后果,使人工智能治理不止停留于原则宣示和伦理倡导,而能够真正转化为具有约束力和执行力的规范体系。也就是说,只有在责任可识别、可分配、可追究的前提下,人工智能伦理治理才能从价值共识走向制度实践。
以下是我针对以上六个原则所作出的详细解释:
1.可信(向善)。联合国教科文组织讲到的是在整个技术进步与人文关怀的系统中,AI在全链条设计要保障人类的基本权益,所以“以人为本”的人本身就是人类的整体权利以及自然人的个体权利。
2.可靠(安全)。关于安全问题,还应当从另一维度加以理解,即除技术性安全之外,还包括开发者管理内部制度建设等“软法治理”或组织治理层面的要求。也就是说,人工智能系统的可靠性并不完全取决于技术防护能力本身,还取决于开发、部署和运营主体是否建立了相应的内部管理机制与合规控制体系。
3.可控(人类自主)。人工智能自诞生之初,其制度前提之一便是坚持人类主导与人类自主。即便在当前知识产权领域关于AIGC生成内容是否构成作品、是否构成发明创造的讨论中,核心判断之一仍在于其中是否存在实质性的人类贡献,以及人类是否对生成过程和生成结果保持了足够程度的操控能力。但发展到今天,人类对人工智能的控制能力已经引发越来越多的担忧,特别是围绕大模型和复杂智能系统可能失控的问题,正在持续升温。特别是Moltbook事件出来以后,外界开始担忧智能体可能通过持续互动形成相对稳定的社区,并在此基础上生成某种内部规则体系,甚至出现将人类排除在外的倾向。这表明,人工智能的发展正在由早期的聊天、代理、任务执行,逐步扩展至辅助创作、辅助发明创造,并进一步显现出一定程度的自我组织能力。一旦人工智能进入具有组织化特征的演化阶段,其潜在风险将显著上升,因而必须予以高度警惕。围绕人工智能可控性的伦理要求与制度回应,已经具有更强的必要性和紧迫性。
4.可解释(透明)。正是因为当前普遍存在对人工智能不可信、不可靠、不可控的担忧,透明度原则才被确立为人工智能治理中的重要要求。其核心在于,人工智能系统不能长期处于“黑箱”状态,不能使使用者、消费者、监管者始终处于无法理解、无法判断、无法举证的境地。为此,自人工智能发展以来,无论是技术界、经济社会学界还是法律界,均普遍承认透明度原则具有重要价值,并已成为国际层面较具共识性的治理原则。就目前来看,算法层面的可解释性在一定程度上仍然是可以实现的,尤其是在相当一部分算法采取开源路径的背景下,单纯以算法不透明为由否定某些模型的应用,理由已未必充分。相较之下,真正更具争议的,往往不是算法本身,而是训练数据的不透明问题。数据透明之所以困难,在于训练数据本身几乎不可能实现完全公开。企业无法将其全部训练数据向外披露,因为其中往往同时涉及隐私、个人信息、著作权、专利权等多重权益内容,也很难做到百分之百取得完整、绝对合规的授权。在此背景下,任何企业都不可能毫无保留地公开全部训练数据,而更多只能通过合规声明、风险说明等方式证明其数据来源总体上符合安全与合规要求。也正因为如此,数据已成为人工智能发展的核心资源之一,不仅构成人工智能能力形成的重要基础,也直接影响模型的价值导向与行为表现。从现实情况来看,当前全球范围内围绕人工智能数据问题已经出现大量诉讼、处罚与合规争议,企业对此亦普遍存在高度担忧。因此,透明度原则虽然应当被肯定,但其适用范围仍需作出区分。我的基本观点是,透明度原则在算法层面可以较为广泛地适用,而在数据层面则应更为审慎地选择适用立场,尤其不宜一概导向举证责任倒置。换言之,算法透明与数据透明虽然同属“可解释”的要求,但二者在可实现性、合规成本与制度后果上并不相同,因而有必要分别加以对待。
5.可溯源(责任主体)。从理想上看,人工智能全链条、全生命周期的可溯源是一项重要要求,但在现实中很难真正实现。我们在与技术开发者多次沟通和调研后发现,尤其是在大模型日益复杂的背景下,一个系统往往汇集了大量主体的持续参与,涉及数据处理、算法设计、模型训练、参数调整和部署运营等多个环节,要对每一环节都做到精确溯源,实际上几乎不可能。因此,更现实的做法,并不是机械追求完全溯源,而是要求相关主体履行必要的信息披露义务,作出基本的责任声明与合规承诺,并在可行范围内提高过程留痕和责任识别水平。这样即便难以实现严格意义上的完全溯源,仍可在一定程度上增强外部监督和责任判断的可能性。
6.可问责(权利保护)。可问责的核心,在于通过法律明确人工智能全链条中各主体的责任分配。该链条既包括软件开发者,也包括平台运营者、硬件开发者以及最终使用者。问题在于,未来责任承担究竟应采取何种结构:是由各环节责任相加,共同填补受害人的全部损失;还是允许权利人直接针对其中任一环节主张赔偿。这实际上涉及人工智能责任体系究竟应采取总和式责任、穿透式责任,还是节点式责任的问题。同时,可问责还涉及间接侵权能否作为独立请求基础的问题,也即权利人是否可以不必追究完整链条,而直接选择其中某一中间主体提起诉讼。从比较法上看,美国在部分知识产权领域允许基于具体权利内容进行更细化的诉讼主张,而我国现阶段仍主要是在整体权利框架下展开责任认定。由此可见,可问责不仅是伦理治理中的原则要求,更是未来人工智能法律责任制度中需要重点讨论的问题。
就目前而言,联合国已经发布了较多与人工智能治理相关的文件,但国际社会尚未形成统一的标准,现阶段更多仍停留在原则共识和政策文件层面,其重点主要集中于保障平等、防止智能鸿沟扩大以及维护人类基本权利。在联合国层面,对于人工智能在军事领域的使用,整体上也持审慎态度。从各国实践来看,不少国家已经陆续出台了相关政策文件和治理方案,但在立法路径上仍存在明显差异。欧盟已开始推进具有一定强制性的法律规制,而多数国家目前仍主要依赖软法、政策指引和伦理规范加以回应。对此,本文不再展开论述。
以下主要以欧盟、美国和新加坡为例加以说明。欧盟已经形成了较为系统的人工智能伦理框架,并专门发布了《可信人工智能伦理准则》,其治理思路更强调以伦理原则统摄技术开发与应用。美国则总体呈现出发展优先的取向,强调保持其在人工智能技术和技术标准领域的领先地位,同时也试图借由规则、制度与基础设施输出其价值立场。由此可见,当前全球人工智能竞争不仅表现为中美之间的技术竞争和产业竞争,也逐渐体现为规则竞争与治理模式竞争。在这种背景下,中国人工智能伦理与治理体系的建构,也应当与产业发展节奏和技术演进阶段保持协调。英国近年来也在相关立法与政策文件中纳入了人工智能伦理条款,这里不再逐一展开。相较之下,我尤其想强调新加坡的做法。新加坡在今年1月发布了AI智能体治理框架,对智能体的监管提出了更为严格的要求,其中最突出的内容就是强调人类可控,要求此类系统始终处于人的有效监督和控制之下。
中国目前已经提出了关于人工智能治理的全球性倡议,并在此基础上逐步形成了由相关法律规范、科技伦理审查规则和政策指引共同构成的治理框架。不过,专门针对人工智能伦理的系统性立法尚未正式出台,人工智能立法整体上仍处于持续推进之中。近期,工信部发布了人工智能科技伦理审查指南及相关审查办法,并计划在全国范围内推动若干试点落地。当前的伦理审查规则,虽然不同于法律规范那样具有严格的条文约束,但其功能在于为企业提供明确的合规指引,推动其朝着更高水平的伦理治理方向发展。对于伦理治理能力较强的大型企业而言,往往会依据较高标准建立内部规则体系;而对于部分初创企业来说,现实目标则更多表现为在不触碰法律底线的前提下实现基本合规。总体来看,中国现阶段科技伦理治理所坚持的基本原则,与国际上通行的人工智能伦理理念大体一致,主要包括增进人类福祉、尊重生命权、坚持公平公正、合理控制风险以及保持公开透明。
从我国现行规范体系来看,人工智能相关标准已经较为丰富,且在人工智能总体标准框架中占有重要位置,其中涉及伦理治理的具体标准也在持续完善,既包括现行有效的规范,也包括正在制定中的内容。《科技伦理审查办法》是目前最直接的制度依据,当前不少机构已着手设立伦理审查委员会,并通过备案等方式推进该办法的具体落实。与此同时,网信部门于2025年推出了《人工智能安全治理框架2.0》,在原有1.0版本基础上进一步升级完善,其中伦理治理与高风险人工智能的法律问题均被纳入重点讨论范围。《人工智能伦理治理标准化指南》则更多体现为对道德准则和治理方向的引导,其上限往往难以通过概括式、列举式或封闭式规则作出完整界定。
下面重点讨论人工智能伦理治理中的红线问题,即哪些行为属于不可触碰的底线,哪些情形已经真正进入伦理失范的范畴。
首先,任何智能体都不得实施或者强化“诱导自杀”的行为。之所以将其列为明确红线,是因为相关风险已非纯粹的理论设想,而是在境内外实践中均已有现实案例出现。凡是可能对个体形成心理操控、情绪诱导,进而促使其实施自伤、自杀等严重危害行为的智能体功能,都应当被纳入严格禁止的范围。
其次,智能体不得以“情感陪伴”或者“拟人化角色扮演”为名,输出低俗、负面、煽动性内容,或者对危害社会、侵害他人的行为进行鼓励、教唆和具体引导。例如,对于吸毒、贩毒、制作武器等法律明令禁止的事项,人工智能系统显然不应具备提供帮助、传授方法或者降低实施门槛的功能。当前大模型在识别相关敏感内容后通常会拒绝回答,这本身也说明,伦理约束已经在一定程度上转化为技术限制与功能边界。再次,人类主导性的削弱乃至失控,正在成为一个日益现实的伦理风险。近期已有新模型被讨论具有构建内部社区、生成秩序甚至形成某种排斥人类的倾向。这表明,人工智能的发展风险已不再局限于工具层面的不当输出,而开始延伸至多智能体协同、自我组织与规则生成等更高层次的问题。对于这类趋势,应当保持高度警惕,并将其作为人工智能伦理治理中的重点风险予以回应。
再看军事用途这一领域。当前,人工智能是否应当进入军事场景,已经成为全球范围内高度敏感且极具争议的问题。各国在这一问题上的立场并不完全一致,科技公司内部也出现了明显分化。以美国为例,无论是部分科学家,还是部分大型科技公司,都明确反对将自身研发的大模型直接用于军事目的。这也表明,军事化应用始终是人工智能伦理治理中最具敏感性、也最接近底线的领域之一。
除军事用途外,过度收集未成年人信息同样属于不可忽视的伦理红线。当前,一些人工智能眼镜、可穿戴设备以及所谓“智慧教育”产品,正在以教育优化、个性化辅导等名义,大量收集未成年人的注意力数据、脑电波数据以及其他高度敏感的信息,并试图据此评估其课堂表现、学习状态和行为特征。此类做法看似服务于教育管理,实则已经超出必要限度,对未成年人权益构成了实质性风险。对于这类产品,不能仅从技术功能或应用效率出发加以评价,而应当首先从伦理与合法性角度审视其是否具备进入市场的正当性。
与此同时,人脸识别和视频数据采集的泛化使用,也已成为现实中尤为突出的风险点。特别是在公共管理和日常通行场景中,“刷脸通行”被广泛视为便捷、高效的治理工具,但这种便利并不能掩盖其背后的高风险属性。人脸信息、生物识别信息本质上均属于高度敏感的个人信息,一旦被过度收集、滥用或泄露,所造成的损害往往具有持续性和不可逆性。对此,我国现行法已有较为明确的限制性立场。无论是《个人信息保护法》《数据安全法》,还是《民法典》及相关司法解释,均强调对敏感个人信息的收集应遵循合法、正当、必要原则,尤其禁止非必要收集。在这一意义上,人工智能应用越是深入教育、治理和公共生活场景,越需要以伦理底线和数据合规要求对其加以严格约束。
除上述较为明确的底线问题外,人工智能伦理治理中还存在一些难以通过单一规则解决的典型难题,例如自动驾驶中的“电车难题”。自然人驾驶车辆发生紧急事故时,往往是在瞬时情境中作出损失最小化判断;但如果这一判断被事先交由大模型或自动驾驶系统处理,那么无论其做出何种选择,均是明知和故意,由此会引发更为复杂的伦理与责任问题。例如,在不可避免的碰撞场景下,若系统按照“损失最小化”原则选择撞向人数较少的一方,虽然其目标在于减少整体损害,但这种选择本身也可能被理解为对特定损害结果的事先容认。由此便产生一个关键问题:软件工程师是否应承担相应的伦理责任,还是应主要由使用者、运营者等主体承担后果。这也是人工智能立法和伦理规范需要回应的重要问题。因此,人工智能治理不能完全依赖伦理规则本身,还需要借助保险等配套制度分散和吸收风险。未来无论是智能驾驶还是无人飞行器等场景,都有必要通过责任分配与保险机制的协同设计,来回应高风险人工智能应用中的损害补偿问题。
最后,可以作如下结论。当前中国在人工智能伦理实践中,整体上仍以企业自律、行业引导和组织内部治理为主。许多企业已通过建立内部规则、设立伦理委员会等方式推进伦理治理,科研机构、高校及相关主管部门也在逐步完善相应机制。现实中,不少单位已经具备较强的伦理审查意识,并开始按照不同专业领域设置专门的审查委员会,但在具体操作层面,面对特定技术、模型或应用场景时,如何审查、依据何种标准审查,仍普遍存在困惑。从目前情况看,人工智能伦理审查更多仍表现为备案式、承诺式治理。也就是说,相关主体需就其模型、产品或服务所遵循的伦理要求作出事前说明和责任承诺,并通过备案留痕,一旦后续发生问题,便可依据其备案内容进行追责。未来随着相关办法发布和试点推进,这一机制可能会在更多机构中逐步展开。不过,这种伦理治理方式目前仍不同于成熟立法意义上的刚性规则,尚未形成类似《个人信息保护法》那样可以直接适用于各类主体的统一规范体系。因此,人工智能伦理治理归根结底体现的是一种“人文主义”的关怀。其要求人工智能开发者以及全链条相关主体不仅承担技术和法律上的义务,更应当对社会作出基本承诺,保持应有的人文关怀。人工智能伦理治理的关键,不仅在于划定不可触碰的法律红线,更在于要求相关主体在研发和应用之初即坚守“向善”的基本立场,而不是以规避责任、试探边界甚至利用规则漏洞为目标展开技术创新。这正是人工智能伦理治理的根本意义所在。
实际上,欧盟、美国与中国在“人”的理解上并不相同,这也直接影响了其“以人为本”原则的制度展开。就我国而言,立法上所强调的“以人为本”,更多是从人类整体利益与自然人个体权利两个层面加以理解,既重视整体性权益的维护,也强调对具体个人权利的保障。与此不同,欧盟“以人为本”的制度表达,主要是围绕自然人个体展开,尤其突出人格尊严、个人自由和基本权利保障,其立法重心更多立足于具体公民的人权保护。相较而言,欧盟更强调对个人权利的保护,而较少从全人类整体利益的角度来建构其人工智能治理框架。美国的“以人为本”则呈现出另一种取向。其制度实践所重点围绕的,并非我国所强调的人类整体利益,也并非欧盟意义上的自然人权利保护,而更多体现为对市场主体、特别是大型私人企业利益与竞争优势的维护。因而,美国相关立法与政策安排在很大程度上带有鲜明的产业导向和市场导向特征。
应当看到,不同国家在历史传统、政治结构、经济模式、文化观念和宗教背景等方面存在显著差异,因此对于“善”的理解本身也不可能完全一致。正因如此,中国在人工智能伦理治理与规则建构上,完全可以立足自身的制度立场、价值取向和现实需求,形成符合本国治理逻辑的规则体系与指引框架。
以上是我的几点看法,不当之处,恳请各位领导、老师批评指正。谢谢大家。
供稿 | 清华服务经济与数字治理研究院
编辑 | 陈丽阳
审核 | 靳 景
实验室简介
夜雨聆风