乐于分享
好东西不私藏

国内AI产品出海欧盟:别只盯着GDPR,AI Act才是下一道硬门槛

国内AI产品出海欧盟:别只盯着GDPR,AI Act才是下一道硬门槛

过去几年,中国互联网产品出海欧盟,法务和合规团队最熟悉的三个字母是:

GDPR

只要涉及欧盟用户数据,大家第一反应就是:隐私政策、Cookie弹窗、DPA、SCC、DPIA、删除权、访问权……

但从2024年开始,欧盟AI监管进入了一个新阶段。

因为《欧盟人工智能法案》(EU AI Act)已经正式落地,并进入分阶段实施周期。

这意味着,国内AI产品如果要进入欧盟市场,不能再只问:

“我的个人数据处理合不合规?”

还要问:

“我的AI系统在欧盟属于什么风险等级?能不能上线?要不要做技术文档、风险管理、透明度披露和合格评定?”

一句话总结:

GDPR管的是“数据怎么处理”,AI Act管的是“AI系统能不能被这样设计、部署和使用”。

两套规则叠加起来,才是AI产品出海欧盟真正的合规门槛。


一、先说结论:AI Act和GDPR不是二选一,而是同时适用

很多团队会问:

“我们已经做了GDPR合规,还需要管AI Act吗?”

答案是:需要。

GDPR和AI Act解决的是两个不同问题。

规则
主要关注点
典型问题
GDPR
个人数据保护
是否有合法处理基础?是否取得同意?是否可删除?是否跨境传输?
AI Act
AI系统风险治理
AI系统属于什么风险等级?是否被禁止?是否需要透明度披露、风险管理和合格评定?

举个例子:

你做了一个AI招聘筛选工具,用于帮助企业筛选简历。

从GDPR角度看,你要解决:

  • 是否有合法处理求职者个人数据的依据;
  • 是否处理了敏感数据;
  • 是否进行了自动化决策;
  • 是否完成DPIA;
  • 数据是否传回中国;
  • 是否签了SCC。

但从AI Act角度看,这类工具很可能属于高风险AI系统,还要额外满足:

  • 风险管理体系;
  • 数据治理要求;
  • 技术文档;
  • 日志记录;
  • 透明度和用户说明;
  • 人类监督机制;
  • 准确性、稳健性、网络安全要求;
  • 上市前合格评定。

所以,GDPR合规只是基础,AI Act合规是新增门槛。


二、AI Act适用于中国公司吗?

适用。

AI Act不是只管欧盟公司,它具有明显的域外效力。

只要你的AI系统满足以下任一情况,就可能受AI Act约束:

  1. 你在欧盟市场投放AI系统或通用目的AI模型;
  2. 你的AI服务面向欧盟用户提供;
  3. AI系统的输出结果在欧盟被使用;
  4. 你是欧盟企业的供应商,AI能力被集成进其产品或服务。

也就是说,即使你的公司在中国,服务器在新加坡,研发团队在深圳,只要你的AI产品卖给欧盟客户,或者面向欧盟用户提供服务,就不能说:

“我不是欧盟公司,所以不适用。”

这和GDPR的域外适用逻辑非常类似。


三、第一步:先判断你的AI系统属于哪一类

AI Act采用的是“风险分级监管”逻辑。

不是所有AI系统都按最高标准管,而是按照风险分为几类:

不可接受风险:禁止高风险:严格监管有限风险:透明度义务最低风险:基本自由使用通用目的AI模型:单独监管

1. 不可接受风险:直接禁止

这类AI系统原则上不能在欧盟提供或使用。

典型包括:

  • 利用潜意识或操纵性技术严重扭曲用户行为;
  • 利用儿童、残障人士等脆弱群体的弱点造成伤害;
  • 基于社会行为或人格特征进行社会评分;
  • 某些预测性警务应用;
  • 通过网络或监控录像无差别抓取人脸图像建立人脸识别数据库;
  • 工作场所和教育机构中的情绪识别,除非有特定例外;
  • 基于敏感特征进行生物识别分类;
  • 公共场所实时远程生物识别执法,除少数严格例外。

如果你的产品涉及人脸识别、情绪识别、行为评分、未成年人互动、公共安全等场景,一定要先做红线审查。

这类义务已在AI Act生效后较早阶段开始适用,不能等到最后期限再处理。


2. 高风险AI系统:最需要重点关注

这是国内AI出海最容易踩中的类别。

高风险AI系统主要包括两大类:

一类是作为欧盟特定监管产品的安全组件,例如医疗器械、汽车、航空、玩具、机械设备等。

另一类是AI Act附录中列明的特定使用场景,包括:

  • 生物识别;
  • 关键基础设施管理;
  • 教育和职业培训;
  • 招聘、员工管理和劳动关系;
  • 基本公共服务和私人服务准入,例如信贷评分;
  • 执法;
  • 移民、庇护和边境管理;
  • 司法和民主程序。

对国内AI公司来说,最常见的高风险场景包括:

产品类型
高风险可能性
AI招聘筛选、简历排序
很高
AI员工绩效评估、离职风险预测
很高
AI信贷评分、风控授信
很高
AI教育测评、考试监考
很高
AI医疗辅助诊断
很高
AI人脸识别门禁、身份验证
中高至很高
AI保险核保定价
中高
AI法律裁判辅助、案件预测
很高

如果你的产品进入高风险类别,合规成本会显著上升。


3. 有限风险AI系统:重点是透明度

很多生成式AI应用会落在这一类。

比如:

  • AI聊天机器人;
  • AI客服;
  • AI生成图片、音频、视频;
  • 深度合成内容;
  • AI写作助手;
  • AI虚拟人。

这类系统不一定属于高风险,但要履行透明度义务,例如:

  • 告知用户正在与AI系统互动;
  • 对AI生成或操纵的内容进行适当标识;
  • 对深度伪造内容进行披露;
  • 在特定情形下说明内容是人工生成还是机器生成。

简单说:

不能让用户误以为自己在和真人交流,也不能让AI生成内容伪装成真实内容。


4. 最低风险AI系统:监管较轻,但不是完全无要求

例如:

  • 游戏AI;
  • 普通垃圾邮件过滤;
  • 非敏感场景的推荐或辅助工具;
  • 内部效率工具。

这类系统通常不受AI Act强制性高风险要求约束,但仍建议遵循自愿行为准则、透明度和安全最佳实践。

同时,如果涉及个人数据,GDPR仍然适用。


5. 通用目的AI模型:大模型厂商要重点关注

AI Act对“通用目的AI模型”(General-Purpose AI Models,GPAI)设置了单独规则。

如果你开发的是基础模型、大语言模型、多模态模型,供下游开发者接入、微调或集成,就可能属于GPAI。

典型义务包括:

  • 编制和维护技术文档;
  • 向下游提供必要信息;
  • 建立版权合规政策;
  • 发布训练数据内容摘要;
  • 对具有系统性风险的GPAI模型进行更严格评估、测试、事件报告和网络安全管理。

如果你只是基于第三方模型做应用层产品,通常不一定是GPAI提供者,但仍可能是AI系统提供者或部署者。


四、第二步:明确你在AI Act下的角色

AI Act不只管“开发者”,它区分不同角色:

  • Provider:提供者,开发AI系统并以自己名义投放市场;
  • Deployer:部署者,使用AI系统提供服务;
  • Importer:进口商,将境外AI系统投放欧盟市场;
  • Distributor:分销商;
  • Product manufacturer:产品制造商;
  • Authorized representative:授权代表。

国内公司最常见的是两种角色:

1. 你直接把AI产品卖给欧盟客户

例如你做了一个AI客服SaaS,在欧盟开放注册、收款、服务。

这种情况下,你通常是AI系统的Provider,需要承担主要合规义务。

2. 你给欧盟企业提供AI能力或SDK

例如你提供一个AI简历筛选API,由欧盟HR平台集成。

这时你可能仍然是Provider,也可能和欧盟客户共同承担部分责任,取决于品牌、控制权、功能设计、是否实质修改系统等因素。

在合同里必须写清楚:

  • 谁负责AI Act合规;
  • 谁准备技术文档;
  • 谁负责用户告知;
  • 谁处理事故报告;
  • 谁应对监管问询;
  • 谁对输出结果承担责任。

否则出了问题,双方都会被拖进去。


五、第三步:如果是高风险AI,必须建立完整合规体系

高风险AI不是写个隐私政策就能上线。

AI Act对高风险系统提出了一整套“产品安全式”监管要求。

1. 风险管理体系

你需要在AI系统全生命周期中识别、评估和控制风险。

包括:

  • 预期用途;
  • 可预见的误用;
  • 对健康、安全、基本权利的影响;
  • 模型偏见;
  • 错误输出;
  • 数据漂移;
  • 对弱势群体的影响;
  • 安全攻击风险。

这不是一次性文档,而是持续机制。


2. 数据治理

如果你的AI系统使用数据训练、验证或测试,需要关注:

  • 数据来源是否合法;
  • 数据是否准确、完整、代表性充分;
  • 是否存在偏见;
  • 是否适合预期用途;
  • 是否包含个人数据;
  • 是否涉及特殊类别数据;
  • 是否采取偏见检测和纠正措施。

对于招聘、信贷、教育、医疗等场景,数据偏差可能直接导致歧视性结果。

例如,用历史招聘数据训练AI筛选模型,如果历史上男性候选人更多,模型可能系统性压低女性候选人评分。这不仅是AI Act问题,也可能触发GDPR和反歧视法律风险。


3. 技术文档

高风险AI系统需要准备详细技术文档,包括:

  • 系统总体描述;
  • 预期用途;
  • 模型设计和开发过程;
  • 数据集说明;
  • 训练、验证、测试方法;
  • 性能指标;
  • 风险控制措施;
  • 人类监督机制;
  • 网络安全措施;
  • 版本管理;
  • 上线后监测计划。

欧盟监管很重视“可证明合规”。

不是你说“我们模型很安全”,而是你要拿得出材料证明你做过该做的事。


4. 日志记录

高风险AI系统需要具备自动记录能力,以支持:

  • 追踪模型运行;
  • 排查事故;
  • 证明合规;
  • 分析异常输出;
  • 支持用户和监管调查。

日志设计要注意和GDPR平衡:既要能追溯,又不能过度收集个人数据。


5. 透明度和用户说明

你需要向部署者提供清晰说明,包括:

  • 系统用途;
  • 性能限制;
  • 已知风险;
  • 所需输入数据;
  • 输出结果含义;
  • 人类监督方式;
  • 使用限制;
  • 维护要求。

如果你的产品面向终端用户,还需要让用户知道AI在决策或服务中发挥了什么作用。


6. 人类监督

高风险AI不能完全“黑箱自动跑”。

你需要设计人类监督机制,让人能够:

  • 理解AI输出;
  • 发现异常;
  • 覆核或推翻AI建议;
  • 停止系统运行;
  • 避免自动化偏见扩大。

例如招聘筛选工具,不能让AI直接决定谁被录用、谁被拒绝,而应当保留人工复核流程。


7. 准确性、稳健性和网络安全

你需要证明系统在预期条件下具备足够:

  • 准确性;
  • 稳定性;
  • 抗攻击能力;
  • 数据投毒防护;
  • Prompt注入防护;
  • 模型越狱防护;
  • 输出异常检测能力。

对于生成式AI产品,尤其要关注幻觉、错误事实、违法内容输出和敏感信息泄露。


六、第四步:GDPR仍然是底座,尤其是个人数据处理

AI Act不会替代GDPR。

只要你的AI产品处理欧盟个人数据,就必须同时满足GDPR要求。

1. 找到合法处理基础

GDPR第6条要求每一项个人数据处理都有合法基础。

常见基础包括:

  • 同意;
  • 合同履行必要;
  • 法定义务;
  • 重大利益;
  • 公共利益;
  • 合法利益。

AI产品最常见的是合同履行必要、合法利益或同意。

但要注意:

“为了提升模型效果”不一定天然构成合法利益。如果用于训练、画像、自动化决策,需要单独评估。


2. 特殊类别数据要特别谨慎

GDPR第9条规定了特殊类别数据,例如:

  • 健康数据;
  • 生物识别数据;
  • 种族或民族来源;
  • 政治观点;
  • 宗教信仰;
  • 工会成员身份;
  • 性生活或性取向数据。

医疗AI、人脸识别、情绪识别、心理测评、招聘筛选,都可能碰到这类数据。

处理特殊类别数据,通常需要额外法律依据,例如明确同意、医疗目的、公共利益等。


3. 自动化决策和画像

GDPR第22条规定,个人有权不受仅基于自动化处理并对其产生法律效果或类似重大影响的决定约束。

这对以下产品非常关键:

  • AI信贷审批;
  • AI招聘筛选;
  • AI保险核保;
  • AI教育录取;
  • AI风控封号;
  • AI员工绩效评估。

如果AI系统对用户产生重大影响,你需要:

  • 告知存在自动化决策;
  • 提供有意义的逻辑说明;
  • 允许人工干预;
  • 允许用户表达意见;
  • 允许用户质疑决定。

4. DPIA:很多AI产品都应当做

DPIA,即数据保护影响评估。

如果AI处理可能对个人权利自由造成高风险,就需要做DPIA。

典型触发场景包括:

  • 大规模处理敏感数据;
  • 系统性监控;
  • 自动化决策;
  • 画像分析;
  • 生物识别;
  • 儿童数据;
  • 新技术使用。

AI产品出海欧盟,DPIA几乎是标配文档之一。


5. 数据主体权利

你需要支持欧盟用户行使权利,包括:

  • 访问权;
  • 更正权;
  • 删除权;
  • 限制处理权;
  • 数据可携带权;
  • 反对权;
  • 不受自动化决策约束的权利。

对AI产品来说,最难的是删除权。

用户要求删除数据时,你不仅要删除数据库里的个人信息,还要评估:

  • 是否进入训练集;
  • 是否进入日志;
  • 是否进入向量库;
  • 是否被用于模型微调;
  • 是否有备份;
  • 是否能从模型或索引中移除影响。

所以建议从架构上把用户数据、训练数据、日志数据、向量数据分层管理。


七、第五步:跨境传输是中国公司绕不开的问题

如果你在欧盟收集个人数据,但数据回传中国研发或运维团队访问,就涉及GDPR下的跨境传输。

由于中国目前并不在欧盟“充分性认定”名单中,通常需要采用:

  • SCC,即欧盟标准合同条款;
  • TIA,即传输影响评估;
  • 补充安全措施,例如加密、访问控制、最小化、密钥隔离;
  • 与处理者签订DPA;
  • 建立跨境访问审批和审计机制。

注意,很多团队误以为:

“数据存在欧洲云上,所以没有跨境传输。”

不一定。

如果中国团队可以远程访问欧盟用户数据,也可能构成跨境传输。

所以架构上要重点区分:

  • 数据存储地;
  • 数据访问地;
  • 运维人员所在地;
  • 日志回传地;
  • 模型训练地;
  • 客服支持地。

八、第六步:生成式AI产品还要关注版权和内容风险

如果你做的是生成式AI应用,欧盟合规不只包括AI Act和GDPR,还会牵涉版权、平台责任和消费者保护。

1. 训练数据版权

AI Act要求GPAI模型提供者建立版权合规政策,并发布训练数据内容摘要。

如果你自己训练大模型,需要说明训练数据来源、版权合规策略以及如何处理权利人选择退出。

欧盟版权法下,文本和数据挖掘虽有一定例外,但权利人可以保留权利。不能简单理解为“网上公开内容都能拿来训练”。


2. AI生成内容标识

深度伪造、AI生成图像、音频、视频、合成新闻等,需要做透明度披露。

如果你做的是AI换脸、AI配音、AI虚拟人、AI生成新闻摘要,尤其要注意:

  • 标识机制;
  • 水印;
  • 元数据;
  • 用户提示;
  • 防滥用机制。

3. 有害内容和虚假信息

欧盟还存在DSA《数字服务法》、消费者保护、反歧视、产品责任等规则。

如果你的AI产品可能生成误导性医疗建议、金融投资建议、法律建议或政治内容,需要建立更强的审核和风险控制机制。


九、一个适合中国AI团队的欧盟合规落地路径

建议不要一上来就写几十份制度,而是按产品生命周期做。

第一步:产品定性

先回答:

  • 我们是AI系统提供者、部署者,还是GPAI模型提供者?
  • 产品是否面向欧盟市场?
  • 是否处理欧盟个人数据?
  • 是否用于招聘、信贷、教育、医疗、生物识别等高风险场景?
  • 是否生成文本、图片、音频、视频?
  • 是否涉及儿童、员工、患者、求职者等脆弱群体?

第二步:风险分级

按AI Act做分类:

是否属于禁止类AI?  ↓是否属于高风险AI?  ↓是否属于有限风险AI?  ↓是否涉及GPAI?  ↓是否只是最低风险AI?

这个分类结果会决定后续合规成本。


第三步:GDPR数据地图

建立数据地图:

  • 收集哪些个人数据;
  • 数据来自用户、客户还是第三方;
  • 用于什么目的;
  • 是否用于训练;
  • 是否用于模型改进;
  • 存储在哪里;
  • 谁可以访问;
  • 保留多久;
  • 是否传回中国;
  • 是否共享给第三方模型服务商。

没有数据地图,就没法做DPIA、SCC、DPA和用户权利响应。


第四步:文档体系建设

至少准备:

  • Privacy Policy 隐私政策;
  • Cookie Policy;
  • DPA 数据处理协议;
  • SCC 跨境传输标准合同;
  • TIA 传输影响评估;
  • DPIA 数据保护影响评估;
  • AI System Risk Assessment;
  • Technical Documentation;
  • Model/Data Card;
  • Incident Response Plan;
  • Human Oversight Procedure;
  • User Instruction / Transparency Notice。

高风险AI还需要更完整的技术文档、风险管理和合格评定材料。


第五步:技术架构调整

合规不是只靠法务文件。

技术上建议:

  • 欧盟用户数据优先存储在欧盟;
  • 中国团队访问欧盟数据走审批和日志;
  • 敏感数据脱敏后再用于分析;
  • 训练数据和业务数据隔离;
  • 用户数据默认不进入模型训练;
  • 向量库支持删除和重建;
  • 日志最小化;
  • Prompt和输出内容设置安全过滤;
  • 高风险决策保留人工复核;
  • 关键模型版本可追溯;
  • 建立模型输出监控和事故响应。

十、不同产品类型的合规重点

产品类型
AI Act重点
GDPR重点
风险等级
AI聊天机器人
透明度披露、内容安全
用户输入、日志、训练用途
AI客服SaaS
透明度、第三方处理者管理
客户数据、DPA、跨境传输
中高
AI招聘工具
高风险AI合规
自动化决策、DPIA、歧视风险
AI信贷风控
高风险AI合规
画像、自动化决策、敏感推断
AI医疗辅助诊断
高风险/医疗器械合规
健康数据、明确授权、安全措施
极高
AI人脸识别
禁止/高风险边界
生物识别数据、特殊类别数据
极高
通用大模型/API
GPAI义务
训练数据、用户输入、跨境
AI图片/视频生成
透明度、深度伪造标识
用户上传素材、肖像与版权
中高

十一、时间表:不要等到客户问了才做

AI Act是分阶段适用的,大致节奏如下:

  • 2024年生效后进入过渡期;
  • 禁止类AI相关规则较早适用;
  • GPAI相关义务在2025年开始适用;
  • 大部分高风险AI义务在2026年前后全面适用;
  • 部分嵌入受监管产品的高风险AI可能有更长过渡期。

对出海企业来说,不要机械地等最后期限。

因为欧盟客户、渠道商、投资人和采购部门会提前要求你提供:

  • AI Act风险分类说明;
  • GDPR合规文件;
  • DPA和SCC;
  • DPIA;
  • 安全测试报告;
  • 模型说明文档;
  • 数据来源证明。

尤其是To B产品,合规往往不是监管来了才需要,而是客户采购阶段就会要求。


十二、最容易踩的七个坑

坑一:以为只要服务器放欧洲就合规

错。

服务器放欧洲只能降低一部分跨境传输风险,但GDPR、AI Act、用户权利、AI风险管理仍然要做。


坑二:以为AI Act只管大模型公司

错。

应用层AI产品也可能是AI系统,招聘、信贷、教育、医疗等场景尤其容易落入高风险。


坑三:以为不收身份证号就没有个人数据

错。

邮箱、IP地址、设备ID、用户输入、语音、图像、行为记录、简历内容,都可能是个人数据。


坑四:以为用户同意就可以解决一切

错。

同意不是万能钥匙。高风险AI仍需满足AI Act义务,自动化决策还要提供人工干预和救济机制。


坑五:以为开源模型没有合规问题

错。

开源模型仍涉及许可证、训练数据来源、输出风险、下游使用限制和安全责任。


坑六:以为B端客户负责全部合规

不一定。

如果你以自己的品牌提供AI系统,或者控制模型核心功能,你很可能仍是Provider,需要承担AI Act义务。


坑七:以为GDPR文档可以直接复用到AI Act

不够。

GDPR文档主要围绕个人数据,AI Act还要求系统风险、技术文档、性能测试、人类监督、合格评定等内容。


十三、给中国AI出海团队的实操建议

如果你的AI产品准备进入欧盟市场,建议现在就做三件事。

第一,做一次“AI Act + GDPR双重体检”

输出两个结论:

  1. AI Act下属于什么类型、什么风险等级;
  2. GDPR下涉及哪些个人数据处理和跨境传输。

这两个结论会决定你后续的成本和产品设计。


第二,把合规要求转化成产品功能

例如:

  • 用户是否知道自己在和AI交互;
  • 是否可以关闭AI训练;
  • 是否可以删除历史数据;
  • 是否支持导出个人数据;
  • 是否有人工复核入口;
  • 是否能解释AI结果;
  • 是否能标识AI生成内容;
  • 是否能记录并追踪模型版本;
  • 是否能针对欧盟用户单独配置数据区域。

合规最终不是PDF,而是产品能力。


第三,尽早准备To B客户尽调材料

欧盟客户采购AI产品时,通常会问:

  • 你是否符合GDPR?
  • 数据是否传到中国?
  • 是否签DPA和SCC?
  • 是否做过DPIA?
  • AI系统是否属于高风险?
  • 有没有AI Act合规路线图?
  • 使用了哪些基础模型?
  • 训练数据来源是否合法?
  • 是否会用客户数据训练模型?
  • 发生AI事故怎么处理?

如果你回答不上来,客户往往不会等你慢慢补。


结语:欧盟AI合规的核心,不是“写文件”,而是“可证明的治理能力”

国内AI产品出海欧盟,过去拼的是模型能力、成本和交付速度。

接下来,还要拼合规能力。

GDPR解决的是:

用户数据能不能这样收、这样用、这样传。

AI Act解决的是:

AI系统能不能这样设计、这样部署、这样影响人。

对于中国AI企业来说,最稳妥的路径不是等监管罚款,而是在产品设计阶段就把合规嵌进去:

  • 数据最小化;
  • 默认不训练客户数据;
  • 欧盟数据本地化;
  • 模型输出可监控;
  • 高风险场景有人类监督;
  • 生成内容有标识;
  • 跨境传输有SCC和TIA;
  • 技术文档能随时拿出来。

一句话总结:

出海欧盟,AI产品不能只做“能用”,还要做到“可解释、可控制、可证明合规”。

这会成为未来中国AI产品进入欧洲市场的基本门票。