
随着人工智能技术快速发展,算法歧视、深度伪造、数字分身等科技伦理问题日益突出。近日,工信部等十部门联合印发《人工智能科技伦理审查与服务办法(试行)》,对AI快速发展中涌现的伦理风险进行审查规制,为规范AI应用、维护公众权益提供制度指引。

建立统一伦理审查框架
弥补规范碎片化
实践中,部分企业采用AI招聘系统“自动筛人”,结果系统倾向淘汰女性或某些地区毕业生,这种算法歧视直接损害相关群体平等就业权益。
中国政法大学郑玉双教授在接受采访时表示,AI易因数据过度获取、技术极致应用引发伦理风险。伦理判断可遵循“是否突破底线+是否违反原则+是否造成实质性不公或伤害”的逻辑,需要在技术参数、应用结果和不同主体的诉求之间寻求平衡。
武汉大学法学院张红教授认为,当前科技伦理治理存在明显短板,主要表现为伦理审查无统一规范,部分企业的审查工作流于形式,高风险AI产品未经评估便上线;平台过度采集交互信息,用户隐私被滥用甚至泄露;针对AI情感诱导、极端言论等违法信息的防范多为事后处置,缺少前置干预机制等。“办法”要求AI提供者建立实时风险识别机制、人工干预机制、数据训练监管机制,实现事前防控、事中处置,以维护公众权益。
郑玉双还告诉记者,“办法”试图对实践中痛点作出制度性回应,通过建立统一的科技伦理审查框架,将人工智能等高风险技术纳入重点审查范围,强化风险分级分类管理,从而弥补规范碎片化问题。同时,强调全过程伦理治理,提高审查透明度、明晰责任归属,完善相应归责机制,在一定程度上能弥补以上短板。
生成肖像可识别为特定自然人
即构成实质侵权
近期,AI短剧“偷脸”事件引发热议。有网友反映,自己在网上发的个人照片,竟成为了AI短剧的配角样本。
对此,张红表示,AI使用的人脸素材多源于公开网络数据的无差别爬取或是特殊渠道获取,平台与使用者为追求模型迭代速度和用户增长,刻意弱化前置审核,导致侵权频发。无论技术路径是图片融合还是文本映射,只要生成形象足以让公众关联特定自然人,即构成实质性侵权。被侵权人需固定“显著特征”重合的证据,并向平台发送“通知-删除”函件,平台若不作为需承担连带责任。“办法”要求企业提交数据合法性与知情同意验证,若模型缺乏防“深度伪造”安全设计(如隐形水印)及未授权肖像技术拦截机制,将被禁止上线,从而在技术底层遏制人脸滥用。
郑玉双认为,对此类盗用行为的防范需要更新法律规制理念,重构法律规则。传统的肖像权侵权强调对肖像的复制,AI肖像侵权应该将核心要件放在可识别性上,综合考虑面部特征、声音语气等因素进行判断,基于这一理念更新来重新归结平台主体的法律责任。科技伦理审查有助于建立防范机制,防止使用未经授权数据,限制生成“高度拟真个体”,并建立风险评估机制。
应建立数字人格
强制解绑与独立授权机制
近日,山东一家游戏传媒公司尝试将离职员工训练成AI数字人继续工作,“离职同事被炼化,实现数字永生”话题冲上热搜。
在张红看来,其中存在三重伦理争议:人格主体的剥离违背了人格权益不可让渡的基本伦理,劳动关系的延伸形成新型的数字剥削,未经明示的拟人化交互是对公众知情权的欺骗。因此,应建立“数字人格”强制解绑与独立授权机制,依附于劳动关系的授权随离职自动终止,继续使用须重签平等的合同,同时落实“显著标识”以防欺骗,使用前员工数字人接待或直播时须在显著位置打上标签。
郑玉双坦言,即便这种训练已经获得离职员工授权,但仍有法律边界且须受伦理约束。“数字永生”会产生人格认同混乱的问题,需要受到严格限制。现行法律法规针对数字人格暂无直接规定,但国家网信办4月3日发布的《数字虚拟人信息服务管理办法(征求意见稿)》已对数字虚拟人作出系统定义,覆盖“数字分身”“AI偶像”等新兴虚拟形态,若该办法通过,将为规制此类场景提供制度依据。

(原文刊载于《上海法治报》2026年4月14日B1版“新法讯”,原文标题:十部门发布《人工智能科技伦理审查与服务办法(试行)》 “数字永生”应当受到法律约束)
撰稿:朱非
责任编辑:徐慧






夜雨聆风