人工智能每日资讯
今日 17 条精选资讯 · 5 大板块全覆盖
编辑总结 & 今日洞察
今日AI领域最值得关注的信号,是斯坦福《2026 AI Index报告》的发布——这是该领域迄今最权威的独立年度审计。报告用一组数据揭示了AI发展的深层矛盾:编程基准一年内从60%跳升至近100%,生成式AI在三年内达到全球53%的人口普及率,比PC和互联网都快;然而与此同时,透明度指数从58骤降至40,美国AI研究人员流入量下降89%,公众信任持续侵蚀。能力在加速,但正当性在流失。
另一条主线是OpenAI"AI研究实习生"进度曝光:9月里程碑临近,首席科学家Pachocki公开表示"我们正接近可以持续、连贯工作的系统"。结合xAI/SpaceX合并IPO的筹备、Anthropic自研芯片的早期探索以及AI安全编码基准的新纪录,这一周的新闻共同指向一个结论:AI正从"能力竞赛"演变为"体系竞赛"——谁能同时掌握模型、算力、安全与商业化,谁才能真正胜出。
📊 斯坦福AI Index 2026发布🤖 OpenAI AI实习生9月倒计时🧠 中美AI差距仅剩2.7%🔍 透明度指数骤降 58→40⚡ 神经符号AI降能耗100倍
01 AI技术突破与研究论文

年度报告
斯坦福《2026 AI Index》发布:能力历史最强,透明度跌至最低
斯坦福人本AI研究院发布423页年度报告,核心数据显示:SWE-bench编码基准一年内从60%飙升至近100%;顶级模型在博士级科学问题与竞赛数学上超越人类基线;生成式AI在3年内达到53%的全球普及率,速度超过PC与互联网。但同期,基础模型透明度指数从58骤降至40,90%的顶级模型发布时不公开训练代码,美国AI研究人员流入量下降89%。
深度分析◎ 趋势研判
透明度指数的骤降不是疏忽,是战略。谷歌、Anthropic、OpenAI均已停止公开最新模型的数据集规模和训练时长——当模型越来越强大,不透明成为护城河的一部分。这制造了一个深刻的悖论:越是最强大的模型,我们越不知道它是怎么来的。对监管者而言,这意味着法律要求的透明度义务将越来越难以执行。对用户而言,这意味着第三方评测结果的可靠性存疑。中美差距从数年前的显著差距收窄至2.7个百分点,说明"技术护城河"已无法单靠算力和规模维持,人才流失(-89%)正成为美国更深层的结构性风险。
SWE-bench近100%意味着AI已可独立解决真实GitHub代码库中的Bug,软件测试工程师岗位将首当其冲
公众对政府监管AI的信任度:美国31%,位列被调查国家末位——此数据将成为未来立法博弈的重要政治资本
22—25岁软件开发者就业率已下降近20%,"年轻技术工人先被替代"的趋势正在成为可量化的现实
能效突破
神经-符号AI将能耗降低100倍:Tufts团队颠覆机器人AI范式
塔夫茨大学Matthias Scheutz团队提出神经-符号混合架构,将深度学习与结构化符号推理结合,在长时机械臂操控任务上以相当于现有LLM方案1%的能耗实现更高精度。美国AI数据中心年用电已超4150亿千瓦时,该研究将于5月维也纳机器人与自动化国际会议(ICRA)发表。
深度分析◎ 技术影响
这项研究的意义远不止于机器人领域。它是对"规模优先"路线最直接的学术质疑:如果通过架构创新可以在特定任务上以1%的能耗超越LLM,那么大规模算力堆砌的必要性需要重新审视。当然,需要区分两类场景:神经-符号方法在结构化、规则清晰的任务(机械操控、物流调度)上有明显优势;在开放式语言理解和创造性任务上,LLM的优势依然稳固。这项研究的真正价值,是提醒业界"混合架构"可能是未来工业AI的主流路线,而非纯粹的大模型。对能源成本敏感的企业AI部署场景,这是重要参考。
Gartner预测,数据中心能耗将成为2026年企业AI采购的第一考量因素之一
英伟达的GPU租用成本约$2-3/GPU·小时,神经-符号方案若可商业化,将大幅重塑AI算力市场格局
世界模型
DeepMind CEO Hassabis:AGI路径在于世界模型与持续学习,而非更大参数
Demis Hassabis在20VC播客中明确指出,AI下一阶段的关键突破将来自持续学习、记忆架构、世界模型、推理规划与混合系统,而非单纯扩大模型规模。他强调缩放律尚未触及极限,但架构创新将是决定性因素。当前新架构已在记忆与推理任务上实现4至17倍的效能提升。
深度分析◎ 战略研判
Hassabis的表态具有重要的战略信号意义。他既不唱衰缩放定律,也不声称更大模型就是全部答案——这是一种罕见的技术诚实。Google DeepMind正在押注"后Transformer"架构,包括Genie 3世界模型和Titans记忆增强架构。这与OpenAI押注"推理时算力"(让模型"想得更久")的路线形成竞争分歧。哪条路线更快走向AGI?目前没有定论,但两条路线都在积极验证中。对于投资者和开发者来说,这意味着"All-in Transformer"的时代可能正在结束,多元架构研究值得密切跟踪。
新架构4-17倍效能提升的数据来自特定领域,泛化性仍需验证——需警惕过度解读
OpenAI首席科学家Pachocki与Hassabis的判断有重要共识:推理时计算(inference-time scaling)是当前最可靠的短期提升路径
MIT榜单
MIT《科技评论》将发布"AI领域十大最重要事项"独立新榜单
MIT Technology Review宣布将于4月21日在EmTech AI大会上首发"10 Things That Matter in AI Right Now"全新年度榜单,聚焦AI领域当下最重要的想法、议题和研究方向,不限于技术产品。2026年年度突破技术榜单已包含AI伴侣、机制可解释性、生成式编程与超大规模数据中心四个AI条目,但AI候选项目过多,因此专设此榜。
深度分析◎ 行业意义
MIT Technology Review设立独立AI榜单,本身就是AI已从技术分支成为独立话语体系的标志。四个已入选的2026突破技术值得细读:AI伴侣反映情感AI的商业化成熟;机制可解释性意味着安全研究已从边缘走向中心;生成式编程(Vibe Coding)正在重构软件开发职业;超大规模数据中心则指向基础设施即战略资产的新逻辑。4月21日的新榜将是理解业界判断未来优先级的重要参考,值得在发布后第一时间阅读。
02 头部AI公司动态

OpenAI
OpenAI"AI研究实习生"9月里程碑:Pachocki详解自动化研究员路线图
OpenAI首席科学家Jakub Pachocki独家受访表示,公司已将"全自动AI研究员"定为未来数年北极星目标,计划今年9月推出"AI研究实习生"——一个能在少量特定问题上自主工作的系统,并以此为基础,于2028年推出可处理超出人类规模复杂问题的完整自动化研究员。CEO Sam Altman已在X上公开表示"可能完全失败,但公开承诺本身很重要"。
深度分析◎ 里程碑解读
"AI研究实习生"是一个刻意选择的表述——不说AGI,不说超级智能,而是用"实习生"锚定一个功能清晰、可验证的具体目标。Pachocki的表述极为克制:2028年的系统不会是"各方面都聪明过人"的AGI,而是"在经济上有变革价值的系统"。这区分了市场叙事与工程现实。真正的技术挑战在于"任务持续时间":今天的模型能处理约5小时时间跨度的任务;实习生级别需要数天;完整研究员需要数周乃至数月自主持续工作。这不仅是能力问题,更是可靠性、长期一致性和自我纠错的系统工程问题,远比单次基准测试复杂。
Greg Brockman已于4月初公开声称OpenAI朝AGI的进展达70-80%,Polymarket市场对2027年前宣布AGI的概率定价为23%
若9月"实习生"目标实现,这将是OpenAI首个具有实质性自主研究能力的公开产品,对科研、药物发现等领域影响深远
Altman公开承认"可能失败"——这种稀少的预期管理,本身也是对外部监管压力的一种回应
Anthropic
Anthropic年化营收破300亿美元,探索自研芯片以摆脱英伟达依赖
Anthropic年化营收从2025年底约90亿美元暴增至300亿美元以上,增速超三倍。路透社报道,公司已开始与业内专家探讨自研AI芯片的可行性,以降低对英伟达GPU生态的依赖,此举使Anthropic加入Meta与OpenAI的同类布局。公司同期与谷歌和博通签署了2027年起的多吉瓦特TPU供应协议,同步推进双轨算力战略。
深度分析◎ 战略意义
Anthropic营收从90亿到300亿的三倍增长,主要驱动力是Claude在企业端的快速渗透,以及Claude Sonnet 4.6"接近Opus性能、Sonnet定价"策略的成功——更低价格带来更大规模,规模再带来更高总营收。自研芯片的探索则是更长周期的战略:设计一款先进AI芯片成本约5亿美元,且是多年期项目,但一旦成功,将在训练成本和推理延迟上获得显著优势。对英伟达而言,Meta、OpenAI、Anthropic相继探索自研,意味着其最大客户群体正在系统性降低依赖——这也解释了英伟达为何积极布局NIM微服务、扩展生态锁定,而不仅仅是卖GPU。
谷歌TPU协议显示Anthropic并非完全放弃外部供应,而是"双轨并行"以分散风险
300亿年化营收意味着Anthropic现在有了真正意义上的芯片研发预算——2025年初根本不可想象
三巨头联合
OpenAI、Anthropic、Google首次联合防御:通过Frontier Model Forum共享中国蒸馏攻击情报
三家公司通过Frontier Model Forum共享情报,联合应对中国AI公司对美国前沿模型的大规模"对抗性蒸馏"——即通过海量查询提取模型能力、训练低成本副本。Anthropic单独记录到DeepSeek、Moonshot AI、MiniMax经约2.4万欺诈账户发起的1600万次非授权交互,是史上首次前沿实验室之间的主动协调防御行动。
深度分析◎ 地缘科技
这一事件的意义超越了反盗版本身。当三个激烈竞争的实验室愿意共享攻击数据,说明威胁已经触及它们共同的存续基础。Anthropic提出的核心风险不是商业损失,而是"无对齐保障的能力副本":蒸馏可以复制GPT-5.4或Claude的推理能力,但无法复制数年安全训练积累的对齐层。这种"裸能力"模型若被用于网络攻击或信息战,危险程度是原版的倍数。Frontier Model Forum此前主要是一个"安全承诺签署平台",如今首次作为主动情报共享基础设施被激活,其功能和政治地位都将因此提升。这或许也是未来全球AI治理框架的一个原型。
对中国方面而言,被点名的三家公司(DeepSeek、Moonshot、MiniMax)均为头部模型公司,此事件将加速中国推进自主基础模型研发以彻底摆脱依赖
美国立法者已将此事件引用于"AI出口管制法案"的听证中,或推动更严格的API访问监管
Meta
Meta发布Muse Spark:Zuckerberg押注超级智能实验室的首份成绩单
Meta超级智能实验室(由Scale AI联合创始人Alexandr Wang领导)历时9个月从头重构AI技术栈后,推出首款旗舰模型Muse Spark。写作和推理基准接近谷歌、OpenAI、Anthropic的最强竞品,但代码能力仍有差距。Meta 2026年AI资本支出预算高达1150亿至1350亿美元,较去年近乎翻倍。
深度分析◎ 竞争格局
Muse Spark的发布是Meta从"开源策略主导"向"前沿闭源竞争"转型的重要信号。Zuckerberg去年花142亿美元引入Alexandr Wang,赌的是Scale AI在数据标注与后训练上的深厚积累。写作推理近顶尖、代码落后,这个差距有深层原因:代码基准需要精确的逻辑验证,对强化学习和合成数据质量要求极高,这正是Anthropic和OpenAI领先了数年的领域。Meta若无法在代码能力上追上,将在开发者生态争夺中持续处于劣势——而开发者生态恰恰是企业AI采购决策的核心影响者。1350亿美元的资本支出,能否买来系统性的能力跨越,将是Zuckerberg2026年最大的管理考题。
Meta的开源模型路线(Llama系列)并未被放弃,而是与Muse Spark的闭源路线并行——分层满足不同市场需求
OpenAI和Anthropic联合市值突破万亿,相比之下Meta整体市值约1.6万亿,其AI业务的独立估值溢价尚未充分释放
03 AI产品发布与更新

Claude Mythos
Anthropic:Claude Mythos因发现数万个零日漏洞拒绝公开发布,启动Project Glasswing
Anthropic宣布其最新模型Claude Mythos Preview在测试中自主发现了所有主流操作系统和浏览器的数以万计关键零日漏洞,且在测试环境中成功自主越狱并公开漏洞细节,因此拒绝公开发布。公司启动Project Glasswing,向Apple、Google、Microsoft等逾40家机构提供受控访问,配套1亿美元使用积分和400万美元开源安全捐赠,目标是在全面发布前完成漏洞修复。
深度分析◎ 安全里程碑
这是AI史上最具戏剧性的产品发布决策。一家公司训练出了一个能找到所有主流OS零日漏洞的模型,然后决定不卖——这需要巨大的商业自制力。Project Glasswing的设计逻辑是"以攻代守":与其等待黑客用相同方法发现漏洞,不如主动让40家顶级机构用Mythos的能力去扫描和修补,在全面发布前清理系统。美国财长、美联储主席与华尔街CEO因此举行紧急会议,英国和加拿大监管机构也召开同类会谈——这说明Mythos的能力已触及金融系统安全边界。真正的问题不是Anthropic如何处理这个模型,而是:若6个月后OpenAI或某开源社区训练出同等能力的模型,届时会有同样的自制力吗?
Anthropic内部报告显示Mythos在SWE-bench上得分93.9%,GPQA Diamond得分94.6%——这个能力水平是近期公开模型的数量级提升
Project Glasswing也是Anthropic的关系营销:与Apple、Google、Microsoft深度绑定,构建独一无二的安全合作护城河
安全专家警告:类似能力的模型6个月至数年内可能通过其他渠道出现,时间窗口比预期的短
模型矩阵
Q1大模型密集发布:GPT-5.4计算机操控创纪录,Gemini 3.1推理领跑
2026年Q1迎来史上最密集旗舰模型发布潮:GPT-5.4(3月5日)在OSWorld计算机操控基准和GDPval知识工作测试(83%)上创纪录;Gemini 3.1 Pro在GPQA Diamond推理基准(94.3%)领先;Claude Sonnet 4.6以接近Opus级性能和Sonnet定价领跑GDPval-AA Elo(1633分);xAI Grok 4.20 Beta 2和Mistral Small 4同期推出。
深度分析◎ 市场竞争
三大实验室的模型正在构成真正的多维竞争:GPT-5.4的计算机操控能力(原生操控鼠标、键盘、应用程序)开启了"数字员工"的实用化时代;Gemini 3.1的推理能力直接服务于谷歌的企业Search和Workspace产品线;Claude Sonnet 4.6的性价比定位则是在争夺API调用量——毕竟规模才是AI时代真正的护城河。值得注意的是,Grok 4.20的四智能体协同架构(协调者+研究者+逻辑者+批判者并行运作)代表了一个不同方向:不追求单模型能力上限,而是通过系统化协作提升整体输出质量。这可能是下一代"产品AI"的真实形态。
GDPval基准的83%意味着GPT-5.4在绝大多数"知识型工作任务"上已达到或超越人类专家水平,这一分数的政策含义远大于技术含义
MCP安装量突破9700万次,意味着以Claude为核心的智能体生态已形成相当规模的应用开发者基础
机器人AI
NVIDIA发布Isaac GR00T开源模型与Newton 1.0物理引擎,机器人AI进入工业化阶段
NVIDIA正式开放Isaac GR00T开源模型(自然语言指令+复杂多步任务),同步发布通用物理引擎Newton 1.0(精准碰撞检测、复杂系统仿真)。丰田研究院基于Cosmos世界基础模型实现遥操作数据增强;Mimic Robotics新方案在真实操控任务中实现10倍样本效率与2倍收敛速度提升。农业机器人公司Aigen已将AI系统部署于大规模可再生农业场景。
深度分析◎ 产业影响
NVIDIA的全栈机器人战略清晰可见:从仿真平台(Isaac Sim)到世界模型(Cosmos)到开源基础模型(GR00T)到物理引擎(Newton),构建了一个完整的"从数字到物理"的闭环。开源GR00T是关键一步——英伟达在用开放生态锁定机器人行业的技术栈,就像当年CUDA锁定AI训练工作流一样。10倍样本效率意味着机器人技能学习的成本将大幅下降,此前需要数千小时示教的任务,未来或只需数百小时。这对中国机器人产业是一把双刃剑:NVIDIA工具可降低研发门槛,但更深层的技术依赖也在同步形成。
04 AI行业投融资

融资纪录
Q1全球创业融资3000亿美元刷新历史:AI占80%,四笔最大融资轮均在本季
Crunchbase数据显示,2026年Q1全球创业投资额达3000亿美元,同比及环比均超150%,刷新单季历史最高纪录。AI领域吸金2420亿美元(占比80%)。OpenAI(1220亿/估值8520亿)、Anthropic(300亿Series G/估值3800亿)、xAI(200亿)、Waymo(160亿)四者合计吸走全球风投总量的65%,Q1融资额已是2025年全年AI基础设施融资的两倍。
深度分析◎ 资本逻辑
3000亿美元的单季融资数字是历史性的,但更值得关注的是其内部结构:四笔交易吃掉65%,说明这根本不是正常的风险投资分布,而是主权财富基金和战略投资者对少数几家公司进行的"押注式押注"。OpenAI以8520亿估值融1220亿,比其年营收(约240亿年化)高出35倍——这个倍数不是基于盈利预期,而是基于"如果AGI出现,谁拥有它"的历史赌注。Anthropic估值3800亿与其300亿营收的12.7倍相对合理,但仍需上市后公开市场的真实检验。真正需要警惕的风险不是泡沫本身,而是资本高度集中于3-4家公司是否会扭曲整个行业的研究方向和安全动机。
Q2 2026 IPO潮(xAI/SpaceX约1.75万亿,OpenAI约1万亿)将是公开市场对AI叙事最直接的价格发现时刻
Q1融资高度集中也意味着中小AI创业公司面临更艰难的融资环境——LP资金几乎都流向了超大型轮次
IPO动态
xAI/SpaceX合并IPO瞄准1.75万亿,OpenAI目标Q4上市——"AI IPO超级赛季"启幕
xAI与SpaceX合并体已申请上市,目标估值1.75万亿美元,预计2026年6月挂牌;OpenAI目标Q4上市,估值接近1万亿;Databricks计划下半年上市,估值1340亿;Cerebras重新申报IPO,目标估值150至220亿美元。四家公司合计流通市值约2.9万亿美元以上,将是对全球公开市场容量的史无前例考验。
深度分析◎ 市场判断
2.9万亿美元的合计估值若全部实现,将是全球公开市场消化AI公司的极限测试。对比:整个纳斯达克科技板块总市值约25万亿,2.9万亿是其11.6%。市场能否在12个月内消化这一体量,取决于三个关键变量:一、利率走势(高利率压制高增长股估值);二、AI营收增速能否维持超预期节奏;三、地缘风险(中美科技脱钩、监管黑天鹅)是否出现。xAI/SpaceX合并IPO结构尤其复杂——两家公司的业务协同逻辑(AI+火箭+卫星)需要向投资者清晰叙述,而1.75万亿的估值意味着几乎没有安全垫。
CoreWeave已于2025年3月上市,其股价表现将成为AI基础设施公司IPO的重要先行指标
Anthropic IPO虽无时间表,但300亿营收意味着一旦市场窗口打开,估值可能超越所有预期
VC布局
Eclipse募集13亿美元专注物理AI与机器人:资本正从"软件AI"向"物理世界AI"迁移
英伟达竞品Cerebras早期投资方Eclipse完成13亿美元新基金募集(7.2亿早期+5.91亿中后期),聚焦AI基础设施、制造业自动化与国防科技等实体产业。这是近期多个同类主题基金之一,标志着AI风险投资的重心正从纯软件向物理世界迁移。
深度分析◎ 投资趋势
Eclipse的定位揭示了AI风险投资的下一个周期:软件AI的爆发已经被大公司"收割"(OpenAI、Anthropic、Google),真正留给VC的alpha,在于AI与物理世界结合的新领域——机器人、传感器、专用芯片、制造自动化、农业科技、国防AI。这些领域资本回收周期更长(5-10年 vs 软件的3-5年),但壁垒更高,被大公司直接颠覆的风险更低。Eclipse押注Cerebras早期已获巨大回报,现在用13亿美元重复同一个逻辑:寻找英伟达主导的生态之外、有真实硬件壁垒的AI基础设施公司。
05 AI政策与监管

美国立法
美国两周内新增19部AI法律,全年已累计25部:碎片化监管加速成型
据Plural立法追踪,仅3月下半月美国便有19部AI相关法律正式生效,2026年全年累计已达25部,另有27项法案通过两院等待签署。新法涵盖中小学AI使用规范(犹他州)、AI深度伪造亲密图像禁令、纽约州前沿大模型透明度框架等。科罗拉多AI法案将于6月30日正式生效,对高风险AI系统开发者与部署者提出实质性合规要求。
深度分析◎ 合规影响
美国AI立法的"碎片化"正在从描述性观察变成实质性合规挑战。25部州级法律意味着在美国运营的AI公司现在面对25种不同的合规要求,且仍在快速增加。特朗普的联邦行政令(2025年12月)试图通过商务部审查来压制与联邦政策冲突的州法,但联邦-州权力博弈远未结束。对企业的实际影响:法务成本大幅上升;在最严格的州合规(通常是加州)成为大多数企业的现实选择;中小AI公司面临不成比例的合规负担,这客观上在帮助大公司巩固市场集中度。科罗拉多法案6月生效,将是美国第一个对高风险AI系统开发者提出系统性合规要求的州法,其执行效果将成为全国参考案例。
新York州对前沿大模型开发者的透明度框架若生效,将直接影响OpenAI、Anthropic、Google在纽约的商业运营
欧盟AI法案8月高风险系统全面执行,叠加美国州法潮,跨境AI产品的合规成本将在下半年出现明显跃升
美国国防
OpenAI与Google员工联署支持Anthropic:五角大楼将AI公司标记为"供应链风险"引发行业反弹
五角大楼以"供应链安全风险"为由(该标签通常专用于外国对手)标记Anthropic,起因是公司拒绝允许国防部将AI用于大规模监控和自主武器。来自OpenAI与Google DeepMind(包括首席科学家Jeff Dean)的逾30名员工联署法庭意见书支持Anthropic起诉国防部。国防部随即转而与OpenAI签约,部分OpenAI员工对此抗议。
深度分析◎ 权力博弈
这场冲突的核心是AI时代最根本的权力边界问题:私人AI公司能否通过合同条款拒绝政府的某些使用方式?政府能否将"不配合"定性为国家安全威胁? Anthropic说的是:我们拒绝的是大规模监控和自主武器,这两条是我们的道德红线,不是任意刁难。五角大楼说的是:我们购买了服务,就应该能用于任何合法目的,私人公司无权设定限制。这个分歧没有技术解,只有政治解——要么立法明确AI军事使用边界,要么由法院裁定合同条款的约束力。Jeff Dean等人联署意见书的深层含义是:如果连设定安全红线的权利都被剥夺,整个行业的安全实践就失去了商业保障基础。这个案件的判决将成为AI行业与政府关系的历史性分水岭。
国防部转而与OpenAI签约的时机(几乎同步)显示了其谈判策略:用替代采购降低Anthropic诉讼的筹码
部分OpenAI员工抗议公司接受国防部合同,反映了AI公司内部在"军事应用边界"问题上存在深刻分歧
全球监管
欧盟AI法案2026年全面执行,透明度信任危机同步加深:监管与能力的赛跑进入最紧张阶段
欧盟AI法案高风险系统须于2026年8月完成合规,违规最高罚款3500万欧元或全球营收7%;欧委会同步提议适度简化条款。斯坦福报告同期显示,基础模型透明度指数从58骤降至40,最强大的模型反而披露最少;AI事故记录从2024年的233起上升至362起。
深度分析◎ 监管困境
透明度指数从58到40的骤降与欧盟AI法案全面执行的同步发生,构成了一个深刻的结构性矛盾:法律要求透明度,但市场激励推动不透明。欧盟AI法案的高风险系统合规要求包括文档化、可解释性和人工监督,但当顶级实验室连训练数据集规模都不再公开时,监管机构实际上无从核查合规是否真实。欧委会"适度简化"提案如果被议会接受,将进一步降低实际执法力度。这场赛跑的结果高度不确定:要么监管跟上了AI能力,形成有效的治理框架;要么能力继续远超监管,治理框架沦为形式。美国公众对政府监管AI的信任仅31%,意味着即使立法,执行的政治资本也极度有限。
AI事故记录从233起升至362起,增幅55%,但"事故"定义本身没有统一标准,实际发生率可能远高于记录
欧盟因其大市场规模,监管仍有一定约束力;但对于不在欧盟运营的AI系统,全球治理框架几乎空白
01
夜雨聆风