乐于分享
好东西不私藏

欧盟的AI大棒 | 我打不过你,但可以决定你怎么在我家打球

欧盟的AI大棒 | 我打不过你,但可以决定你怎么在我家打球

温馨提示:有点长,倒杯茶,慢慢看。不看也行,点个赞。

2026年8月2日,悬在科技公司头顶的刀

我本来不想写这个话题的。AI监管,欧盟法案,合规期限——听起来就是那种会让人在开会时偷偷刷手机的东西。但最近连续看到几条新闻,越看越觉得这事儿跟普通人其实有关系,而且关系不小。

8月2日这个日期,现在是很多科技公司法务部的噩梦。 这一天原本是欧盟《人工智能法案》给“高风险AI系统”下的最后通牒。什么叫高风险?就是那些能在你不知不觉中影响你人生的东西:

(图为《欧盟人工智能法案》附件三中列出的高风险AI系统)
以下是人话翻译:

高风险人工智能

根据欧盟《人工智能法案》,以下领域中的AI系统被认定为高风险。这些AI一旦出现问题,可能严重影响人们的安全、权利或机会。

·

1. 人脸与情绪识别

  • 远程人脸识别:摄像头自动认出你是谁(不包括用指纹或刷脸解锁设备这种“确认是你本人”的情况)。
  • 根据敏感特征分类:通过人脸推断种族、政治倾向、宗教信仰、性取向等。
  • 情绪识别:用摄像头分析你是高兴、悲伤还是生气。

简单点:公共场所的刷脸抓拍、识别人种、看情绪的系统。

·

2. 关键基础设施

  • 用于控制电网、水厂、燃气、供暖、交通信号灯、关键数字网络等系统的核心安全组件。

简单点:管理红绿灯、管道阀门、电力调度的AI,一旦出错可能造成重大事故。

·

3. 教育与职业培训

  • 决定录取或分班:用AI打分来筛选学校或培训班。
  • 评估学习成绩:自动阅卷、判断学习效果,甚至据此调整教学方案。
  • 决定教育水平:将学生分到“快班”或“慢班”。
  • 考试监控:用摄像头或行为分析检测是否作弊。

简单点:用于录取、评分、分班、监考的AI,直接影响学生前途。

·

4. 就业与员工管理

  • 招聘:自动筛选简历、分析候选人、定向推送招聘广告。
  • 员工管理:决定升职、降薪、解雇,根据行为习惯安排任务,或监控工作表现。

简单点:筛简历、决定晋升、监控工作量的AI。

·

5. 重要公共服务与私人服务

  • 公共福利资格:AI决定能否领取低保、医保、住房补贴。
  • 信用评分:银行用AI评估个人信用(金融反欺诈除外)。
  • 保险定价:人寿险、健康险的风险评估与保费计算。
  • 紧急服务:接听报警电话、判断优先级、调度救护车/消防车/警车,或医院急诊分诊。

简单点:决定能否领救助、能否贷款、保费多少、如何派救护车的AI。

·

6. 执法领域

  • 预测犯罪风险:分析某人成为受害者的概率。
  • 测谎工具:用AI判断是否说谎。
  • 评估证据可靠性:在案件调查中判断证据真假。
  • 评估犯罪或再犯风险:基于性格、过往行为等进行判断。
  • 行为画像:根据数据勾勒“有犯罪倾向”的人物特征。

简单点:警察使用的测谎、风险预测、证据分析、人员画像的AI。

·

7. 移民、庇护与边境管理

  • 测谎工具:在口岸对入境人员使用。
  • 风险评估:判断是否存在安全隐患、非法移民风险或健康风险。
  • 签证/庇护审查:辅助决定是否给予签证、居留许可或难民身份。
  • 人员识别:检测和辨认入境人员(单纯核对护照除外)。

简单点:边境上用于测谎、评估入境风险、审批签证、识别人脸的AI。

·

8. 司法与民主进程

  • 辅助判案:帮法官查法律条文、分析证据、解释事实,或用于仲裁调解。
  • 影响选举:定向推送信息改变投票意愿(不包括后台行政或后勤管理工具)。

简单点:辅助法官判案、试图影响选举结果的AI。

再简单点:刷脸进小区、AI筛简历、银行用算法给你打信用分、警察用系统预测犯罪……你发现没有,这些东西不是科幻片,是2026年已经在用的东西。

欧盟说,行,你可以用,但8月2日之前你必须让我满意。不满意的代价是什么?

最高3500万欧元,或者你全球年收入的7%。哪个高算哪个。

现在可以想象一下,Google或者Meta的某位财务总监看到7%这个数字时,脸上的表情。

·

⚠️ 但是,剧情现在有点狗血

Tech Policy Press前几天报道,欧洲议会投票想把高风险系统的要求推迟到2027年12月。但问题是,这个推迟还没正式通过。如果6月前欧盟理事会谈不拢,8月2日还是照常生效。

于是科技公司现在面临一个经典的 “薛定谔的合规”困境:你到底是现在就开始砸钱准备,还是赌一把“反正会推迟”?

赌输了的人,可能就要交出那7%。


欧盟到底在干嘛?

以前不太理解欧盟的这套操作。明明自己搞不出像样的AI大模型,OpenAI、Google、字节跳动、百度,一个个跑得飞快,欧盟连个起跑线都没站上去。那你总该急吧?

结果人家不急。人家蹲下来,开始在地上划线。

这个画面其实挺有意思的。你跑你的,我画我的。你要进入我的市场,对不起,你得按照我画的线来跑:

  • 数据得留在欧洲
  • 算法得解释得通
  • 用户得能一键关掉你的推荐

这不是监管,这是主权。

这有什么用?GDPR(欧盟2018年实施的《通用数据保护条例》,以严格的个人数据隐私保护规则闻名) 当年也是这样画的,结果呢?全球所有互联网公司现在都有那个“同意或拒绝”的弹窗,那就是欧盟画的线。人家没造出一家社交巨头,但让所有社交巨头都长了同一根骨头。

CNBC前几天出了个数据:过去两年欧盟对美国科技公司的罚款累计超过70亿美元。特朗普政府已经骂街了,说这是“针对美国公司的关税”。欧盟的回应也很简单:

“我们的法律保护的是欧洲人,你是谁都不好使。”

说实话,听着还挺硬气的。


谁更难受?

这个问题我问过自己好几遍,上网看了很多分析,最后的感受是:都难受,但难受的点不一样。

美国公司最难受的是什么?

是那套 “数据驱动”的商业模式 直接被挖了墙角。

你想,美国AI公司的玩法很简单:你白用我的服务,我白用你的数据。用的人越多,数据越多,模型越聪明,服务越好。这是个完美的正循环,直到你遇到欧盟。欧盟说,你可以用数据,但你要:

  • 告诉我用来干嘛
  • 让我能删掉
  • 不能离开欧洲

这就像你开了一家健身房,告诉会员“你练得越久,我越了解你的身体,越能帮你练出好身材”。然后政府突然告诉你:“对不起,每次练完你都得删掉会员的训练记录。”

那你拿什么“越了解”?你的核心竞争力直接就没了。

所以美国巨头这几年在欧洲的法务团队比工程师还多——这不是段子,是现实。

中国公司的处境更微妙一点

一方面,中国AI在美国本来就没什么生意——不是不想做,是人家不让。芯片禁令、投资审查,早就把门关上了。所以美国市场这块肉,本来就没吃到。

另一方面,中国公司去欧洲,反而有一个意想不到的 “优势” ——在国内已经被监管训练过了。

中国的AI监管也很严,算法备案、内容审核、数据安全,哪样都不比欧洲轻松。所以很多中国公司到了欧洲,第一反应不是“好麻烦”,而是 “哟,这我熟”

但这不是说中国公司就能高枕无忧。

最大的不确定性是地缘政治。现在中欧关系说好不算好,说坏也不算坏,但只要哪天气氛一变,欧盟突然加强对中国AI公司的审查,你连喊冤的地方都没有。

所以我的判断很简单:

短期看美国公司更疼,长期看中国公司更悬。

因为地缘政治这东西,像极了夏天的雷阵雨——天气预报永远不准,但你最好随身带把伞。


谁也瞧不上谁

如果把全球AI监管放在一起看,会发现大家根本不在一个频道上。

模式
逻辑
风险
美国模式
先跑再说,跑到前面了再想规则
等想定规则时,牌桌上只剩两三个巨头
中国模式
一边跑一边定规则,动态平衡
规则变得太快,小玩家跟不上
欧盟模式
先花三年画跑道,画好了再跑
规则画完发现别人都跑完了

你说哪个好?

但换个角度想,欧盟的普通人在隐私保护这件事上,确实比中美普通人更有安全感。人家的数据是真的被当回事在保护,不是弹个窗点个“同意”就完事了。

这其实是个选择题:你是想要更快的创新,还是更多的安全感?

机会在哪里?

有些人看到“欧盟加强AI监管”会兴奋,觉得这是 “欧美互咬,中国渔翁得利” 。这个想法听着爽,但现实不太支持。

原因很简单:欧盟的监管不是针对美国的,是针对所有人的。 你在欧洲做生意,就得守人家的规矩。不会因为你护照上写的是中国就网开一面。

但是,机会还是有的,只是不在“渔翁得利”这个方向上。

第一个机会,是帮别人合规。 欧盟的监管框架非常复杂,欧洲本地的小公司自己都搞不定。谁能帮它们搞定审计、解释算法、做隐私评估,谁就能赚钱。

这其实就是经典的 “卖铲子给淘金者”——大家都在淘AI的金子,你卖合规这把铲子,稳赚不赔。

第二个机会,是监管出海。 中国自己的AI监管框架虽然跟欧盟不一样,但很多思路是相通的。如果把在国内练出来的合规经验打包,输出到东南亚、非洲、南美这些监管还在空白期的地方,那就是一次标准的 “先发优势”

当年欧美企业进中国,靠的不就是带着规则和标准进来吗?

当然,这些话对大多数AI创业公司来说有点远。对他们来说,活着本身就很难了,哪有精力想这些。

但我觉得,监管这个东西,换个角度看,它不是一堵墙,而是一条护城河。 谁先学会怎么合规,谁就能在别人淹死的时候稳稳地走过去。

平衡

“创新和监管怎么平衡” ,好像创新是油门,监管是刹车,踩多了就慢了。但真实世界不是这样的。

你看GDPR,当年骂的人那么多,结果逼出了差分隐私、联邦学习这些新技术。监管不是刹车,它有时候是方向盘——把你从一个方向拧到另一个方向。

当然,监管过度确实会出问题。合规成本太高,小公司活不下去,最后市场又被巨头垄断。这也不是我们想看到的结果。

所以真正的问题不是“油门踩多少,刹车踩多少”,而是:

这些成本到底谁来扛

是让大公司多扛一点,还是让小公司也跟着一起扛?是保护用户的隐私优先,还是保护创新的速度优先?这里面没有正确答案,只有取舍。


记得以前看过一个访谈,问一个做AI产品的程序员怎么看待监管。他说了一句话,我到现在都记得:

“以前我觉得监管是找麻烦,现在我觉得监管是在告诉我,代码会怎么影响一个真实的人。”

如果有一天,一个你很喜欢的小众AI应用,因为合规成本太高而倒闭了;而另一个你不太喜欢的巨头,因为监管不敢乱用你的数据——你觉得值吗?

这个问题我问过自己好几遍,比“8月2日会不会推迟”重要得多。


参考来源:Holland & Knight、CNBC、Tech Policy Press、Center for Democracy and Technology等

END

看懂AI时代,从这里开始

慢慢来,才更快