AI治理的“三重脱节”
AI治理的“三重脱节”
当前,人工智能治理正陷入一个尴尬的“追赶游戏”:技术正以“周”为单位狂奔,而我们的法律、伦理和监管体系,却常常在问题爆发后才匆忙跟上。这导致了一个核心矛盾:我们拥有看似先进的治理理念,却在落地时频频遭遇“看不懂、管不住、跟不上”的困境。究其根本,是治理体系在技术、文化与法律三个维度上,出现了严重的“脱节”。
技术脱节:
治理者与创新者之间的“能力代差”
治理者与前沿技术之间存在巨大的“理解鸿沟”。当监管还在研究如何给上一代AI“贴标签”时,下一代技术已经带来了全新的、更复杂的风险。
现实表现:
1.规制总是慢半拍:网信部门对“剪映”等应用未落实AI生成内容标识进行处罚。这标志着监管开始动真格,但针对的已是普及的技术。当前业界最前沿的探索,如能自主规划、调用工具的智能体(AI Agent),其引发的责任与安全问题更为复杂,监管规则尚在空白。
2.开源浪潮带来监管真空:强大的开源基础模型,使任何人都能下载、微调并部署。这彻底动摇了传统“管住服务提供者”的监管根基。有安全报告指出,互联网上存在大量缺乏防护的开源AI模型实例,极易被恶意利用,但监管对此类全球分布式、匿名化的开发行为缺乏有效抓手。
3.司法实践倒逼规则更新:杭州中院开庭审理全国首例“AI智能体流量劫持”不正当竞争案。这预示着,当AI能自主执行任务时,其引发的竞争、安全与责任问题将远超现有法律框架的预想,法官和律师都在“摸着石头过河”。
核心矛盾:监管机构在技术理解、专家资源和数据分析能力上,与产业前沿存在巨大鸿沟。治理者必须真正“懂行”,否则规则要么因不切实际而悬空,要么因“一刀切”而误伤创新。
文化(伦理)脱节:
抽象原则与具体困境的“价值断层”
当前对AI伦理的讨论,多停留在“安全、公平、透明”的口号层面,一旦触及具体、尖锐的价值冲突,便显得苍白无力,缺乏可操作的解决框架。
现实表现:
1.“数字人”引发的身份与尊严冲击:爱奇艺“AI艺人库”引发轩然大波,多位艺人否认授权。这不仅是法律上的肖像权问题,更触及了数字时代人的主体性、劳动价值与商业伦理的深刻命题:当人的容貌、声音、表演风格被数字化“克隆”并无限复用,其作为“人”的独特尊严与价值如何保障?
2.“数字复活”中的情感与伦理困境:清明节期间,一些平台推出“AI复活”亲人服务,收费从数百到数千元不等。这已超越了简单的“知情同意”法律框架,直指生者情感慰藉、逝者数字人格、商业伦理边界的复杂纠缠。粗糙的模板化服务甚至涉嫌欺诈,但更深层的拷问是:我们是否有权“创造”一个逝者的数字存在?这会对生者的哀悼与记忆产生何种影响?
3.伦理原则在实践中流于形式:尽管头部企业设立了伦理委员会,但在激烈的市场竞争和增长压力下,伦理审查有时为产品“开绿灯”。一些AI陪伴应用利用认知偏差设计成瘾机制,一些招聘算法难以完全排除历史偏见,这与“以人为本、智能向善”的宣称形成了现实反差。
核心矛盾:伦理讨论亟待从抽象的口号,转向具体场景下的结构化价值权衡框架。例如,在自动驾驶的极端情境决策、AI在教育中的情感替代边界等问题上,社会需要公开、理性的讨论来形成共识,而非仅由企业和工程师在“黑箱”中决定。
法律脱节:
“碎片化”响应与“体系化”需求的冲突
中国的AI立法采取了“小步快跑、精准打击”的务实策略,但“补丁式”立法带来了规则分散、预期不明甚至潜在冲突的问题,体系化构建迫在眉睫。
立法现状与挑战:
1.“小步快跑”的成就与疲劳:从《生成式人工智能服务管理暂行办法》到发布的《人工智能拟人化互动服务管理暂行办法》,监管响应速度快。然而,企业面对不断出台、分散于多个部门的规章,合规成本持续攀升,且对未来规则缺乏稳定预期。
2.法律间的“打架”与“空白”:AI训练对海量数据的需求,与《个人信息保护法》的“最小必要”原则、《著作权法》的“先授权后使用”之间存在现实张力。智能体(AI Agent)造成损害时,责任在基础模型提供者、应用开发者、平台运营方、终端用户之间如何划分,现有《民法典》侵权责任编难以直接给出清晰答案。
3.高层共识与体系化立法启动:司法部明确表示“今年将加快研究推进人工智能等领域立法”。多位全国人大代表、政协委员也联名呼吁,应尽快启动基础性、综合性的《人工智能法》立法工作,以解决当前“头痛医头、脚痛医脚”带来的规则冲突与监管盲区。部分地区已开始先行先试,如广东省已将制定《人工智能发展促进条例》列入立法工作计划。
核心矛盾:分散的部门规章解决了“点”上的急症,但未能形成内部和谐、指引清晰的规范体系。这导致规则“热闹”但“不解渴”,内行觉得“不过瘾”,外行觉得“很复杂”,难以支撑AI产业的长远、健康发展。
脱节之下,
出路在于系统性升级
AI治理的“三重脱节”现状,是一次深刻的“体检报告”。它揭示了一个核心事实:仅靠被动的“追赶”和零散的“回应”,已无法应对指数级发展的技术所带来的系统性挑战。
未来的出路在于正视脱节,进行系统性升级:
1.技术上必须“懂行”:治理机构需要引进和培养顶尖的技术理解力,与产业界建立前瞻性的联合研究机制,并大力发展“监管科技”,用技术手段来提升监管的穿透力。
2.文化上必须“思辨”:将伦理学家、哲学家、社会科学家引入治理的核心圈,将抽象的伦理原则转化为不同产业场景下的具体操作指南和公共讨论框架,让“向善”成为可衡量、可审查的设计要求。
3.法律上必须“建制”:加快推进《人工智能法》的基础性立法进程,构建统一的风险分级分类管理制度、清晰的全链条责任框架和高效的监管协同机制,为整个AI创新生态提供稳定、透明、可预期的法治环境。
成功的AI治理,将取决于我们能否构建一个 “技术可理解、价值有共识、法律成体系”的良性生态。这要求所有参与者——立法者、监管者、企业家、学者和公众——共同完成从“被动应对者”到“主动架构师”的角色转变。这条道路挑战巨大,但也是我们驾驭智能时代、确保技术服务于人民美好生活的唯一路径。
夜雨聆风