乐于分享
好东西不私藏

实务指南 | 高风险AI系统合规路径:EU AI Act Annex III逐条拆解

实务指南 | 高风险AI系统合规路径:EU AI Act Annex III逐条拆解

欧盟AI Act对AI产品的监管核心逻辑是”风险分级,差异化要求”。四级风险中,高风险(High-Risk)是合规成本最高的一块——需要事前认证,建立完整技术文档,接受合格评定机构审核。

对于面向欧盟市场的AI企业,搞清楚自己的产品是否落在高风险范围,是合规的第一步。


Annex III是什么

Annex III是EU AI Act第二章第三节的附件(Regulation (EU) 2024/1689, Annex III),列出了所有被认定为高风险的AI系统类型,一共8大类。落在清单里的,必须在2026年8月前完成合规。

这里有个关键逻辑要区分清楚:Annex III列的是应用场景类别,不是AI技术本身。同一个AI技术,用在不同的场景,风险等级可能完全不同。比如人脸识别,用于消费电子的刷脸解锁是最小风险;但用于公共场所的实时身份核查,就是被禁止的。


八大类高风险AI系统逐条拆解

第一类:生物特征识别与情感识别

生物识别AI(Article 6, Annex III(1))包括:

  • 对人脸、指纹、虹膜、步态等生物特征进行分类或识别的AI系统
  • 用于推断个人敏感属性(政治观点、宗教信仰、哲学信仰、种族、性取向等)的生物特征分析AI
  • 情感识别AI(Annex III(1)(b))指从面部表情或身体动作推断个人情绪状态的AI系统。

值得注意的是,实时公共场所远程生物识别AI已在Article 5被直接禁止,Annex III这一条更多覆盖的是非实时场景——比如酒店入住的人脸核验、企业内部的身份门禁等,同样需要认证。

第二类:关键基础设施管理与运营

Annex III(2)涵盖用于关键基础设施管理和运营的AI系统,包括供水、燃气、供暖、电力等公共事业设施的运行优化和安全管理AI。

虽然直接影响可能不如其他类别明显,但一旦这类AI出现误判导致供水系统异常或电网调度失误,波及面极广。欧盟对此类AI的合规要求重点在风险评估和持续监控,要求建立故障安全机制。

第三类:教育与职业培训

Annex III(3)规定了三种场景:

  • 教育评估
    :用于判定教育机构入学、录取、分配学生资格的AI——比如学校用AI决定申请人是否被录取,这类AI直接影响个人受教育机会
  • 职业培训评估
    :用于评估职业培训效果的AI——比如决定某人是否获得某项职业资格认证
  • 教育质量评估
    :用于评估学习成果和学习过程的AI

这一类别的核心原则是:AI的评估结论不应成为唯一决定因素,学生或学员应有权要求人工复审。

第四类:就业与人力资源管理

Annex III(4)是与中国出海企业最相关的类别之一,涉及:

  • 招聘筛选
    :用于发布招聘广告、筛选简历、评估面试表现的AI
  • 晋升与解雇决策
    :用于决定晋升、调岗、降薪、解雇的AI
  • 任务分配与绩效评估
    :用于分配工作任务、评估员工绩效的AI
  • 监测与评估
    :用于监测员工行为、评估员工表现或合规情况的AI

EU AI Act对这类AI的要求极为严格,Article 16要求:AI的输入数据必须无歧视、训练数据须代表真实劳动力结构、须提供人工复审通道、须告知劳动者其被AI系统评估的事实。

对在欧盟有员工或雇主的出海中国企业,如果用HR系统带有AI筛选或评估功能,就需要评估是否落入此范围。

第五类:基本服务于公民的服务获取

Annex III(5)覆盖AI在金融和公共服务领域的应用:

  • 信贷评分与保险定价
    :用于个人信贷额度评估、保险风险评估的AI,直接影响个人能否获得贷款、保险费率的高低
  • 公共福利资格判定
    :用于确定公民是否有权获得政府补贴、社会救助、公共服务的AI
  • 紧急服务响应优先级
    :用于决定消防、医疗、救援资源分配优先级的AI

这一类的核心合规要求是:必须保证算法的公平性,不得在受保护类别(性别、种族、年龄、残障状况等)上产生歧视性影响;消费者有权要求对AI决策进行人工解释和复审。

第六类:执法与司法协助

Annex III(6)涉及司法系统中AI的应用:

  • 犯罪风险评估
    :用于评估个人再犯罪风险的AI(但不能是唯一决定因素)
  • 法医分析辅助
    :用于DNA分析、指纹比对、笔迹鉴定等法医场景的AI
  • 证据可靠性评估
    :用于评估证据可信度的AI
  • 犯罪调查中的AI应用
    :用于在调查阶段分析案件数据的AI

值得注意的是,执法类AI的合规认证必须由欧盟成员国指定的国家合格评定机构进行。

第七类:移民、庇护与边境管理

Annex III(7)覆盖:

  • 测谎与情感分析
    :用于评估庇护申请者陈述可信度的AI
  • 签证与居留申请评估
    :用于决定签证类型、居留许可的AI
  • 边境通关AI
    :用于自动识别潜在非法入境者的AI系统

这一类的合规重点是透明度义务——被评估的个人有权知晓AI在其申请评估中的参与程度,并有权提出异议。

第八类:司法与民主进程

Annex III(8)是Annex III中最敏感的类别:

  • 犯罪调查辅助AI
    :用于在刑事案件中支持调查人员分析证据的AI
  • 司法研究辅助AI
    :用于辅助法官或司法研究人员进行案例研究的AI——注意,AI不能替代法官判决,只能辅助研究
  • 影响选举的AI系统
    :用于影响选举结果或公民投票行为的AI——这一类在欧盟语境下与政治广告监管紧密结合

高风险AI合规:五步落地

确认产品落入Annex III范围后,合规路径如下:

第一步:建立风险管理系统(Article 9)

识别、分析、评估AI系统可能产生的风险,建立持续的风险监控和更新机制。风险评估不是一次性工作,而是需要随产品迭代持续更新的动态文档。

第二步:确保训练数据质量(Article 10)

高风险AI的训练数据必须满足:数据收集程序有完整记录、数据具有代表性、数据经过适当清洗以减少歧视性偏见。特别注意,数据集中的受保护类别分布应反映真实人群结构。

第三步:编制技术文档(Article 11)

技术文档是高风险AI合规的核心,必须包含:系统描述、设计规格、性能指标、训练数据来源、风险评估结果、人工监督措施等。文档须在产品上市前完成,并在产品生命周期内持续更新。

第四步:实施人类监督(Article 14)

Article 14要求对高风险AI系统建立有效的人工监督机制,确保人类能够在必要时干预或停止系统运行。关键是:人类监督不是走过场,而是实际可操作的。

第五步:保证准确性与鲁棒性(Article 15)

AI系统须能在其声明的使用场景内保持足够的准确率、鲁棒性和抗对抗攻击能力。高风险AI须定期接受独立测试,测试报告作为下次认证审核的必备材料。


认证路径:自我声明还是第三方审核

高风险AI的合格评定(Conformity Assessment)分两种路径:

供应商自我声明(Article 43)

适用于部分Annex III中列明的AI系统,供应商可依据协调标准自行评估并出具声明,无需第三方机构审核。但自声明不代表没有要求——必须严格对照协调标准建立完整技术文档体系。具体覆盖范围包括:
  • 关键基础设施管理AI(Annex III第2类)
  • 教育和职业培训AI(Annex III第3类)
  • 就业和人力资源管理AI(Annex III第4类):招聘筛选、绩效评估、晋升/解雇决策等
  • 金融和公共服务AI(Annex III第5类):信贷评分、保险定价、公共福利资格判定等
  • 情感识别AI(在非执法场景下,Annex III第1类)

第三方合格评定(Article 43(1))

部分高风险AI类别(主要是执法、移民、司法类)必须由国家认可机构(Notified Body)进行第三方审核后才能上市。这一类认证周期长、费用高,建议提前12个月以上启动。

实际操作中的灰色地带:Article 43的配套细则(即哪些具体系统必须强制走Notified Body)还在陆续出台,部分成员国的指定机构也在审批过程中。所以即便产品理论上可以自声明,如果目标市场的国家主管机构要求加强审查,也可能出现被要求补充第三方评估的情况。建议在启动合规前,向目标市场的监管机构确认具体要求。

中国企业的实操建议

  1. 先做产品分类筛查:对照Annex III的8类清单,逐一评估自己的AI产品是否落在高风险范围。这个步骤不花钱,自己能做,建议尽快完成。

  2. 高风险产品立即启动合规:2026年8月是大限,第三方认证周期可能需要6到12个月,从现在开始倒推,时间已经非常紧张。

  3. HR和金融AI是重点关注领域:对中国出海企业,Annex III第四类(就业与人力资源)和第五类(信贷与保险)适用范围最广,且中国企业在这两个领域的AI应用非常普遍。

  4. 技术文档体系化:建议从现在起,所有Annex III相关产品的开发过程文档,都要按Article 11的要求体系化归档,避免认证时临时补材料。


附:核心法规索引

  • EU AI Act (Regulation (EU) 2024/1689), Annex III
  • EU AI Act, Article 5 (Prohibited AI Practices)
  • EU AI Act, Article 9 (Risk Management System)
  • EU AI Act, Article 10 (Data Governance)
  • EU AI Act, Article 11 (Technical Documentation)
  • EU AI Act, Article 14 (Human Oversight)
  • EU AI Act, Article 15 (Accuracy, Robustness and Cybersecurity)
  • EU AI Act, Article 43 (Conformity Assessment)