实务指南 | 高风险AI系统合规路径:EU AI Act Annex III逐条拆解

欧盟AI Act对AI产品的监管核心逻辑是”风险分级,差异化要求”。四级风险中,高风险(High-Risk)是合规成本最高的一块——需要事前认证,建立完整技术文档,接受合格评定机构审核。
对于面向欧盟市场的AI企业,搞清楚自己的产品是否落在高风险范围,是合规的第一步。
Annex III是什么
Annex III是EU AI Act第二章第三节的附件(Regulation (EU) 2024/1689, Annex III),列出了所有被认定为高风险的AI系统类型,一共8大类。落在清单里的,必须在2026年8月前完成合规。
这里有个关键逻辑要区分清楚:Annex III列的是应用场景类别,不是AI技术本身。同一个AI技术,用在不同的场景,风险等级可能完全不同。比如人脸识别,用于消费电子的刷脸解锁是最小风险;但用于公共场所的实时身份核查,就是被禁止的。
八大类高风险AI系统逐条拆解
第一类:生物特征识别与情感识别
生物识别AI(Article 6, Annex III(1))包括:
-
对人脸、指纹、虹膜、步态等生物特征进行分类或识别的AI系统 -
用于推断个人敏感属性(政治观点、宗教信仰、哲学信仰、种族、性取向等)的生物特征分析AI -
情感识别AI(Annex III(1)(b))指从面部表情或身体动作推断个人情绪状态的AI系统。
值得注意的是,实时公共场所远程生物识别AI已在Article 5被直接禁止,Annex III这一条更多覆盖的是非实时场景——比如酒店入住的人脸核验、企业内部的身份门禁等,同样需要认证。
第二类:关键基础设施管理与运营
Annex III(2)涵盖用于关键基础设施管理和运营的AI系统,包括供水、燃气、供暖、电力等公共事业设施的运行优化和安全管理AI。
虽然直接影响可能不如其他类别明显,但一旦这类AI出现误判导致供水系统异常或电网调度失误,波及面极广。欧盟对此类AI的合规要求重点在风险评估和持续监控,要求建立故障安全机制。
第三类:教育与职业培训
Annex III(3)规定了三种场景:
- 教育评估
:用于判定教育机构入学、录取、分配学生资格的AI——比如学校用AI决定申请人是否被录取,这类AI直接影响个人受教育机会 - 职业培训评估
:用于评估职业培训效果的AI——比如决定某人是否获得某项职业资格认证 - 教育质量评估
:用于评估学习成果和学习过程的AI
这一类别的核心原则是:AI的评估结论不应成为唯一决定因素,学生或学员应有权要求人工复审。
第四类:就业与人力资源管理
Annex III(4)是与中国出海企业最相关的类别之一,涉及:
- 招聘筛选
:用于发布招聘广告、筛选简历、评估面试表现的AI - 晋升与解雇决策
:用于决定晋升、调岗、降薪、解雇的AI - 任务分配与绩效评估
:用于分配工作任务、评估员工绩效的AI - 监测与评估
:用于监测员工行为、评估员工表现或合规情况的AI
EU AI Act对这类AI的要求极为严格,Article 16要求:AI的输入数据必须无歧视、训练数据须代表真实劳动力结构、须提供人工复审通道、须告知劳动者其被AI系统评估的事实。
对在欧盟有员工或雇主的出海中国企业,如果用HR系统带有AI筛选或评估功能,就需要评估是否落入此范围。
第五类:基本服务于公民的服务获取
Annex III(5)覆盖AI在金融和公共服务领域的应用:
- 信贷评分与保险定价
:用于个人信贷额度评估、保险风险评估的AI,直接影响个人能否获得贷款、保险费率的高低 - 公共福利资格判定
:用于确定公民是否有权获得政府补贴、社会救助、公共服务的AI - 紧急服务响应优先级
:用于决定消防、医疗、救援资源分配优先级的AI
这一类的核心合规要求是:必须保证算法的公平性,不得在受保护类别(性别、种族、年龄、残障状况等)上产生歧视性影响;消费者有权要求对AI决策进行人工解释和复审。
第六类:执法与司法协助
Annex III(6)涉及司法系统中AI的应用:
- 犯罪风险评估
:用于评估个人再犯罪风险的AI(但不能是唯一决定因素) - 法医分析辅助
:用于DNA分析、指纹比对、笔迹鉴定等法医场景的AI - 证据可靠性评估
:用于评估证据可信度的AI - 犯罪调查中的AI应用
:用于在调查阶段分析案件数据的AI
值得注意的是,执法类AI的合规认证必须由欧盟成员国指定的国家合格评定机构进行。
第七类:移民、庇护与边境管理
Annex III(7)覆盖:
- 测谎与情感分析
:用于评估庇护申请者陈述可信度的AI - 签证与居留申请评估
:用于决定签证类型、居留许可的AI - 边境通关AI
:用于自动识别潜在非法入境者的AI系统
这一类的合规重点是透明度义务——被评估的个人有权知晓AI在其申请评估中的参与程度,并有权提出异议。
第八类:司法与民主进程
Annex III(8)是Annex III中最敏感的类别:
- 犯罪调查辅助AI
:用于在刑事案件中支持调查人员分析证据的AI - 司法研究辅助AI
:用于辅助法官或司法研究人员进行案例研究的AI——注意,AI不能替代法官判决,只能辅助研究 - 影响选举的AI系统
:用于影响选举结果或公民投票行为的AI——这一类在欧盟语境下与政治广告监管紧密结合

高风险AI合规:五步落地
确认产品落入Annex III范围后,合规路径如下:
第一步:建立风险管理系统(Article 9)
识别、分析、评估AI系统可能产生的风险,建立持续的风险监控和更新机制。风险评估不是一次性工作,而是需要随产品迭代持续更新的动态文档。
第二步:确保训练数据质量(Article 10)
高风险AI的训练数据必须满足:数据收集程序有完整记录、数据具有代表性、数据经过适当清洗以减少歧视性偏见。特别注意,数据集中的受保护类别分布应反映真实人群结构。
第三步:编制技术文档(Article 11)
技术文档是高风险AI合规的核心,必须包含:系统描述、设计规格、性能指标、训练数据来源、风险评估结果、人工监督措施等。文档须在产品上市前完成,并在产品生命周期内持续更新。
第四步:实施人类监督(Article 14)
Article 14要求对高风险AI系统建立有效的人工监督机制,确保人类能够在必要时干预或停止系统运行。关键是:人类监督不是走过场,而是实际可操作的。
第五步:保证准确性与鲁棒性(Article 15)
AI系统须能在其声明的使用场景内保持足够的准确率、鲁棒性和抗对抗攻击能力。高风险AI须定期接受独立测试,测试报告作为下次认证审核的必备材料。

认证路径:自我声明还是第三方审核
高风险AI的合格评定(Conformity Assessment)分两种路径:
供应商自我声明(Article 43)
-
关键基础设施管理AI(Annex III第2类) -
教育和职业培训AI(Annex III第3类) -
就业和人力资源管理AI(Annex III第4类):招聘筛选、绩效评估、晋升/解雇决策等 -
金融和公共服务AI(Annex III第5类):信贷评分、保险定价、公共福利资格判定等 -
情感识别AI(在非执法场景下,Annex III第1类)
第三方合格评定(Article 43(1))
实际操作中的灰色地带:Article 43的配套细则(即哪些具体系统必须强制走Notified Body)还在陆续出台,部分成员国的指定机构也在审批过程中。所以即便产品理论上可以自声明,如果目标市场的国家主管机构要求加强审查,也可能出现被要求补充第三方评估的情况。建议在启动合规前,向目标市场的监管机构确认具体要求。
中国企业的实操建议
-
先做产品分类筛查:对照Annex III的8类清单,逐一评估自己的AI产品是否落在高风险范围。这个步骤不花钱,自己能做,建议尽快完成。
-
高风险产品立即启动合规:2026年8月是大限,第三方认证周期可能需要6到12个月,从现在开始倒推,时间已经非常紧张。
-
HR和金融AI是重点关注领域:对中国出海企业,Annex III第四类(就业与人力资源)和第五类(信贷与保险)适用范围最广,且中国企业在这两个领域的AI应用非常普遍。
-
技术文档体系化:建议从现在起,所有Annex III相关产品的开发过程文档,都要按Article 11的要求体系化归档,避免认证时临时补材料。

附:核心法规索引
-
EU AI Act (Regulation (EU) 2024/1689), Annex III -
EU AI Act, Article 5 (Prohibited AI Practices) -
EU AI Act, Article 9 (Risk Management System) -
EU AI Act, Article 10 (Data Governance) -
EU AI Act, Article 11 (Technical Documentation) -
EU AI Act, Article 14 (Human Oversight) -
EU AI Act, Article 15 (Accuracy, Robustness and Cybersecurity) -
EU AI Act, Article 43 (Conformity Assessment)
夜雨聆风