欧盟AI监管的“类推解释”:ChatGPT成了搜索引擎?
作者按:AI监管的对象到底是什么?是技术本身,还是技术的应用场景?是模型的开发者,还是模型的部署者?
欧盟的回答是:应用场景决定监管强度; 美国的回答是:技术本身中立,监管聚焦于具体违法行为; 英国的回答是:不对AI进行事前分类和一刀切监管,而是依赖现有监管机构在其各自领域内识别和管理AI带来的具体风险。
2026年4月10日,德国《商报》一则报道引发全球科技界关注:欧盟委员会或在未来几天内宣布,将OpenAI的ChatGPT正式认定为“超大型在线搜索引擎”(Very Large Online Search Engine, VLOSE),纳入《数字服务法》(Digital Services Act, DSA)监管。
欧盟委员会发言人回应称,ChatGPT搜索功能在欧盟的月活跃用户已超过DSA设定的4500万门槛。OpenAI自身披露的数据更为精确:截至2025年9月底的六个月期间,ChatGPT搜索功能在欧盟的平均月活跃用户约为1.204亿。
传统的“关键词→链接”式搜索,正在被生成式AI带来的“对话式搜索”所替代。用户不再被动接受系统推送的网页链接,而是获得经过AI系统整合、理解、生成的结果。这一变化深刻动摇了DSA原有的监管预设。
一旦被认定为VLOSE,OpenAI将承担与谷歌搜索同等强度的法定义务:透明化算法运作机制,主动识别并减轻系统性风险,建立非法内容通知与行动机制,接受年度独立审计。若有违反,将面临最高达全球年营业额6%的罚款。
一、类推解释?扩大解释?
DSA于2022年11月16日正式生效,但除VLOPs/VLOSEs的部分条款自生效之日起适用外,大部分义务性条款自2024年2月17日起才全面适用。它是目前国际上最系统化的互联网平台监管立法,其监管逻辑可概括为三层递进结构。
第一层,中介服务(intermediary services)。包括纯粹管道(mere conduit)、缓存(caching)、托管(hosting),适用基础义务。
第二层,在线平台(online platforms)。适用基础义务,附加透明度与用户保护义务。
第三层,超大型在线平台(Very Large Online Platforms, VLOPs)和超大型在线搜索引擎(Very Large Online Search Engines, VLOSEs)。月活跃用户超过4500万(即欧盟人口的10%),适用最严苛的额外义务。
DSA第33条明确,VLOPs和VLOSEs须满足月活跃用户4500万以上的门槛;第34条进一步要求其识别、评估并减轻由服务设计、功能或使用所引发的系统性风险。
问题的症结在于:DSA的法律分类体系沿用了2000年《电子商务指令》(Directive 2000/31/EC)对中介服务的概念框架,但该框架的底层预设是——受监管的服务均为“中介服务”,它们传输或存储的信息由服务接收者提供,服务提供者本身不创造内容。生成式AI根本不在这个预设之内。学界明确指出,DSA“无法清晰地捕捉生成式AI系统本身”(does not clearly capture generative AI systems per se)。
二、概念适用的削足适履
这是一种结构性的法律不对称:欧盟委员会可以对整合了生成式AI的平台(如X平台)采取行动,但不一定能够针对生成式AI系统本身(如Grok)采取行动。
欧盟发言人的表态中藏着一个微妙的限定词:“逐案分析”(case-by-case basis)。这意味着欧盟承认大型语言模型不能被一概而论地塞进既有分类,但监管的需求压倒了分类的严谨性。委员会此前已表态:“大型语言模型可能落入DSA的适用范围,但须在‘逐案分析’的基础上判断。”(Large Language Models could potentially be in the scope of the DSA, but that this had to be analysed on a ‘case-by-case basis’.)
更准确的学理说法是:ChatGPT同时展现出在线搜索引擎和在线平台的双重特征——通过查询处理和信息交付执行搜索功能,同时通过用户输入存储和自定义GPT应用表现出平台特性。因此,其法律定位应为“在线搜索引擎与在线平台的混合体”(a hybrid of the two types of hosting services: online search engines and platforms)。
法律分类的失准将导致监管负担与风险性质的不匹配。当“搜索引擎”的定义被拉伸到足以容纳ChatGPT,它就不再是一个有意义的法律概念了。
三、法域的监管分歧
面对新技术,三大法域选择了三条不同路径。
欧盟:风险预防。
欧盟选择的是“风险预防”路径(precautionary approach)。在DSA的立法哲学中,规模本身就是风险。当一个服务拥有超过4500万月活用户,它便构成一个公共信息基础设施。ChatGPT被认定为搜索引擎,不是因为它在技术上与谷歌相似,而是因为它在功能上已经成为欧洲用户“接入信息的核心门户”。逻辑是:扮演了公共基础设施的角色,就必须承担公共基础设施的责任。
美国:创新优先。
美国走的是“创新优先”路线(innovation-first approach)。2025年12月11日,特朗普签署第14365号行政令(Executive Order 14365),标题为“确保国家人工智能政策框架”(Ensuring a National Policy Framework for Artificial Intelligence)。该行政令启动联邦政府对各州AI相关法律的联合审查,要求各部门制定政策建议、行业标准与立法草案,并指示司法部长在30日内成立AI诉讼工作组(AI Litigation Task Force),专门挑战与联邦AI政策相冲突的州级AI法律。
2026年3月20日,白宫进一步发布《国家人工智能政策框架》(National Policy Framework for Artificial Intelligence),明确提出联邦AI政策应以“最低负担”(minimally burdensome)为原则,通过联邦优先(federal preemption)消除碎片化监管,建立统一的联邦AI监管框架。
其底层逻辑是:AI首先是技术,其次才是风险源。监管必须为创新让路,任何阻碍美国赢得全球AI竞赛的规则都应当被移除。本质上是产业竞争的达尔文主义。
英国:第三条道路。
英国走的是介于美欧之间的第三条道路。2023年3月29日,英国政府发布白皮书《促进创新的AI监管路径》(A pro-innovation approach to AI regulation),确立五大非强制性原则:安全、保障与稳健性;适当透明度与可解释性;公平性;问责与治理;可争议性与救济。
英国模式的本质是:不对AI进行事前分类和一刀切监管,而是依赖现有监管机构在其各自领域内识别和管理AI带来的具体风险——监管聚焦于AI的使用场景而非技术本身。
具体而言,信息专员办公室(ICO)负责数据保护,竞争与市场管理局(CMA)负责竞争监管,通信管理局(Ofcom)负责通信与广播领域的AI应用监管,金融行为监管局(FCA)负责金融服务领域的AI监管。这四个机构通过数字监管合作论坛(DRCF)进行跨领域协调。DRCF于2020年7月成立,FCA于2021年4月成为正式成员。
三条路径的背后,是对同一个问题的不同回答:
当生成式AI以对话替代检索、以整合替代罗列,DSA的“搜索引擎”概念便被强行拉伸到一个立法者未曾预见的维度——当立法者面对一个既有分类体系无法容纳的技术物种时,最直接的反应不是修法,而是削足适履。
欧盟选择了最激进的做法。ChatGPT的命运只是一个开端。所有生成式AI系统都将面临同样的追问:你在DSA的分类体系中,到底是谁?
术语表 Glossary
数字服务法 | Digital Services Act(DSA)
欧盟互联网平台监管法规,2022年11月16日生效(came into force),2024年2月17日全面适用(became fully applicable)。核心特征是对中介服务进行分层监管,是目前国际上最系统化的互联网平台监管立法。
生成式人工智能 | Generative AI
能够自主生成内容(文本、图像、音频等)的人工智能系统,如ChatGPT、Grok。其核心特征在于服务提供者本身创造或生成内容,而非仅传输或存储用户提供的信息,因此不在DSA原有分类预设之内。
中介服务 | Intermediary Services
DSA监管的基础类别,包括纯粹管道(mere conduit)、缓存(caching)、托管(hosting)三类。其底层预设是服务提供者不创造内容,仅传输或存储“由服务接收者提供的信息”。
超大型在线搜索引擎 | Very Large Online Search Engine(VLOSE)
DSA第三层监管对象。月活跃用户超过4500万的在线搜索引擎,ChatGPT拟被归入此类,一旦认定将承担与谷歌搜索同等强度的法定义务。
超大型在线平台 | Very Large Online Platform(VLOP)
DSA第三层监管对象。月活跃用户超过4500万的在线平台,与VLOSE并列适用最严苛的额外监管义务。
系统性风险 | Systemic Risks
DSA第34条要求VLOPs及VLOSEs识别、评估并减轻的风险类型,包括非法内容的传播、对基本权利的负面影响、对民主进程与公民诚信的损害、对公共健康与安全的威胁等。
电子商务指令 | Directive 2000/31/EC
2000年欧盟通过的关于信息社会服务若干法律问题的指令。DSA的法律分类体系沿用了该指令对中介服务的概念框架,但DSA并非替代而是补充该指令。
逐案分析 | Case-by-Case Basis
欧盟委员会对ChatGPT法律归类时采用的方法论原则。委员会承认大型语言模型无法被一概而论地塞进既有分类体系,须结合具体功能与使用场景逐案判断。
结构性的法律不对称 | Structural Legal Asymmetry
指欧盟委员会可以对整合了生成式AI的平台采取监管行动,但不一定能够针对生成式AI系统本身采取行动的法律状态。其根源在于DSA的底层预设仅覆盖中介服务。
风险预防路径 | Precautionary Approach
欧盟AI监管的立法哲学。在DSA的逻辑中,规模本身就是风险——当一个服务拥有超过4500万月活用户,即被视为公共信息基础设施,须承担相应的公共责任。
创新优先路径 | Innovation-First Approach
美国AI监管的政策取向。AI首先被定位为技术而非风险源,监管须为创新让路,以“最低负担”为原则,通过联邦优先消除州级碎片化监管。
第14365号行政令 | Executive Order 14365
美国总统特朗普于2025年12月11日签署的行政命令,标题为“确保国家人工智能政策框架”(Ensuring a National Policy Framework for Artificial Intelligence)。该行政令启动联邦政府对各州AI相关法律的审查,并指示成立AI诉讼工作组。
国家人工智能政策框架 | National Policy Framework for Artificial Intelligence
美国白宫于2026年3月20日发布的联邦AI政策文件,提出以“最低负担”为原则的立法建议,推动建立统一的联邦AI监管框架。
联邦优先 | Federal Preemption
美国宪法第六条规定联邦法律优先于州法律的原则。在AI监管领域,联邦政府通过制定全国统一规则,使与之冲突的州级法律归于无效。
AI诉讼工作组 | AI Litigation Task Force
美国司法部根据第14365号行政令成立的专门工作组,负责挑战与联邦AI政策相冲突的州级AI法律。
促进创新的AI监管路径 | A Pro-Innovation Approach to AI Regulation
英国政府于2023年3月29日发布的AI监管政策白皮书,确立五大非强制性原则,核心是基于风险的灵活监管,监管聚焦于AI的使用场景而非技术本身。
安全、保障与稳健性 | Safety, Security and Robustness
英国AI监管五大原则之一。要求AI的应用以安全、稳健的方式运行,对相关风险进行谨慎识别与管理。
适当透明度与可解释性 | Appropriate Transparency and Explainability
英国AI监管五大原则之一。要求AI开发和部署机构说明AI的使用场景及决策过程,解释深度须与AI风险水平相匹配。
公平性 | Fairness
英国AI监管五大原则之一。要求AI的使用符合英国现行法律,不得产生歧视性或不公平的结果。
问责与治理 | Accountability and Governance
英国AI监管五大原则之一。要求对AI的开发和部署方式进行适当监督,明确问责主体与治理结构。
可争议性与救济 | Contestability and Redress
英国AI监管五大原则之一。要求对AI产生的有害结果提供明确的争议解决途径和有效的补救措施。
数字监管合作论坛 | Digital Regulation Cooperation Forum(DRCF)
英国四大数字监管机构(ICO、CMA、Ofcom、FCA)的跨领域协调平台,2020年7月成立,FCA于2021年4月成为正式成员。
信息专员办公室 | Information Commissioner‘s Office(ICO)
英国数据保护监管机构,DRCF成员之一。
通信管理局 | Office of Communications(Ofcom)
英国通信与广播监管机构,DRCF成员之一。
竞争与市场管理局 | Competition and Markets Authority(CMA)
英国竞争监管机构,DRCF成员之一。
金融行为监管局 | Financial Conduct Authority(FCA)
英国金融服务监管机构,DRCF成员之一。
混合体(在线搜索引擎与在线平台的混合体) | Hybrid of Online Search Engines and Online Platforms
学理上对ChatGPT最精确的法律定位。ChatGPT同时展现在线搜索引擎的信息检索功能和在线平台的用户交互、内容存储功能。
最低负担原则 | Minimally Burdensome Standard
美国《国家人工智能政策框架》提出的监管原则,要求联邦AI监管标准不得施加不必要负担,以消除碎片化监管对产业创新的阻碍。
#DSA#ChatGPT#AI监管#欧盟#搜索引擎#VLOSE#生成式AI#OpenAI#全球AI治理#法律分类#特朗普AI行政令#英国AI白皮书#削足适履#技术治理#比较法#DigitalServicesAct#AIGovernance#DRCF#逐案分析
夜雨聆风