加速,失控,还是新秩序的前夜?
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
前言:当AI的速度超越了我们的理解框架
每年四月,斯坦福大学人工智能研究院(HAI)发布的《AI指数报告》都是全球政策制定者、投资人、研究者和产业界必读的年度文件。这份报告被称为"AI领域最权威的独立数据源",迄今已出至第九版。最新推出的2026年版报告横跨研究与开发、技术性能、负责任AI、经济影响、科学应用、医疗、教育等多个维度,汇聚了全球最新数据与洞察。
2026年版的开篇,联席主席Yolanda Gil和Raymond Perrault写下了这样一段话:
"数据并不指向单一方向。它所揭示的,是一个扩张速度超过其周围系统适应能力的领域。"
这一判断,贯穿了整份报告的始终。
AI的能力并未触顶。恰恰相反,它正在加速——而且速度之快,已经让评估体系、治理框架、教育系统和劳动力结构都开始出现结构性滞后。生成式AI在三年内达到53%的用户渗透率,比个人电脑和互联网都快。全球企业AI采用率升至88%。顶级模型在博士级科学问题上的得分,已经逼近甚至超越人类基准线。代码编写任务(SWE-bench)的完成率,在一年内从60%飙升至接近人类水平的100%。
但与此同时:负责任AI的评测体系在落后;记录在案的AI事故从2024年的233件增至362件;顶级AI公司越来越不愿意公开训练数据和模型参数;吸引到美国的AI研究人员数量较2017年骤降89%;22至25岁软件开发者的就业率一年内下降近20%。
这,就是2026年的AI图景:一半是奇迹,一半是警告。
本文将结合报告中的核心数据与原始图表,从研发格局、技术性能、负责任AI、经济影响、科学与医学突破、教育变革、政策治理到公众认知,做一次系统性的深度解读。
一、研发格局:寡头垄断与地缘博弈
1.1 模型生产:高度集中于少数机构
2025年,全球共发布95个值得关注的前沿AI模型。其中,美国机构贡献了50个,中国30个,韩国5个,其余国家合计10个。产业界贡献了超过90%的顶级模型,学术界的份额继续萎缩。
更值得关注的是透明度问题。OpenAI、Anthropic、谷歌等主要前沿实验室,已停止公开其最新旗舰模型的训练代码、数据集规模、参数量和训练时长。这意味着外部研究者和监管机构越来越难以独立核实这些系统的能力边界与安全特性。

图1:2025年各主要地区值得关注的AI模型数量(来源:Epoch AI / 2026斯坦福AI指数报告)
从模型的开放程度来看,开源(无限制权重)模型的比例在2025年维持在约45个,而闭源API接入模型约26个。开源生态的蓬勃,部分抵消了能力集中于少数机构的担忧——Hugging Face的模型上传量自2023年以来翻了三倍,GitHub上的AI相关项目数量已达560万个。

图2:2014-2025年值得关注的AI模型按开放程度分类(来源:Epoch AI / 2026斯坦福AI指数报告)
1.2 算力基础设施:单点脆弱性
AI能力的飞速增长,背后是惊人的算力消耗。自2022年以来,全球AI计算能力以每年3.3倍的速度增长,截至2025年底已达到1710万枚H100等效算力单元。Nvidia主导着超过60%的算力份额,谷歌和亚马逊提供了其余大部分,华为则以小但增长的份额出现。
然而这一庞大的算力体系,建立在一个极为脆弱的单点之上:台湾积电(TSMC)。当今几乎所有顶级AI芯片均由台积电制造,令全球AI硬件供应链高度依赖台湾这一家工厂。2025年,台积电在美国的扩建项目开始投入运营,一定程度上缓解了这一集中风险,但尚不能从根本上改变格局。
数据中心方面:美国以5427个AI数据中心领跑全球,超过排名第二国家的10倍以上,其能耗也居全球之首。
1.3 能耗与环境代价:被忽视的碳账单
AI的高速发展正在带来日益沉重的环境负担。报告中的数据令人触目惊心:

图3:领先机器学习硬件的能效演进(上)与训练前沿模型所需总功耗(下)(来源:Epoch AI / 2026斯坦福AI指数报告)
▶ Grok 4 训练碳排放:72,816吨CO₂当量相当于约1.6万辆汽油车行驶一年
▶ AI数据中心总装机功率:29.6 GW与纽约州峰值用电需求相当
▶ GPT-4o年推理耗水量:超过127万吨超过1200万人的年饮用水需求

图4:GPT-4o推理的年度耗水量与现实基准对比(来源:AI Index 2026)
这组数据提供了一个重要的视角:当我们讨论AI的经济价值时,其环境外部性同样需要被纳入评估框架。对于我们在绿色能源领域的从业者而言,AI基础设施的能源需求与可再生能源的结合,正在成为一个新的产业交叉点。
1.4 人才流动:美国的隐忧
AI人才的地理流动出现了令人担忧的信号。移入美国的AI研究人员与开发者数量,较2017年骤降89%,其中仅过去一年就下降了80%。尽管美国仍然拥有全球数量最多的顶级AI研究人员,但这一加速流失的趋势,结合当前美国政策环境的不确定性,值得高度关注。
性别差距方面,全球AI人才中女性比例仍处于低位,且自2010年以来在任何国家都没有出现有意义的改善。这是一个结构性问题,而非短期波动。
二、技术性能:奇迹与"锯齿边界"并存
2.1 全面超越:AI跨越人类基准线
如果要用一张图来概括AI技术进步的速度与深度,图5是最直观的选择。它展示了过去十三年间,AI系统在多个基准测试上相对于人类基准线的表现演变。

图5:多项AI技术性能基准对比人类表现(2012-2025)(来源:AI Index 2026)
从图中可以读出几个关键信息:图像分类(ImageNet)早在2015年前后就超越了人类;英语语言理解、多任务语言理解(MMLU)相继在2019-2021年区间达到人类水平;而博士级科学问题(GPQA Diamond)直到2024年才突破人类基准线;竞赛数学(AIME)和智能体多模态计算机使用(OSWorld)则在2025年才刚刚追上。
代码编写领域的进步尤为惊人。在SWE-bench Verified这一衡量AI自主解决真实软件工程问题的基准测试中,系统完成率在一年内从60%飙升至接近人类水平的100%。

图6:SWE-bench代码生成基准——各模型解决率(来源:SWE-bench Leaderboard / AI Index 2026)
2.2 "锯齿边界":会奥数,不会看钟
然而,AI的技术进步远非线性和全面的。报告引入了"锯齿前沿"(Jagged Frontier)这一概念,精准描述了当前AI能力的奇特特征:
谷歌Gemini Deep Think在2025年国际数学奥林匹克竞赛中赢得金牌——但顶级模型正确读取模拟时钟的概率只有50.1%,约等于随机猜测。
这种不均衡性在机器人领域同样显著:在RLBench软件仿真环境中,机器人操作成功率已高达89.4%;但在真实家庭环境中执行非结构化任务,成功率仅为12%。
AI智能体(Agents)的进步则较为显著。在OSWorld这一测试智能体在真实操作系统上完成计算机任务的基准中,任务成功率从12%跃升至约66%。但这也意味着,它们仍然在约三分之一的情况下会失败。
2.3 美中差距实质性收窄
地缘层面,一个里程碑式的变化正在发生:美中顶级AI模型的性能差距,已经实质性地收窄到几乎可以忽略的程度。自2025年初以来,两国模型多次交替领先。2025年2月,DeepSeek-R1一度与当时最顶级的美国模型并驾齐驱;截至2026年3月,Anthropic的顶级模型(Claude Opus 4.6)领先中国最佳模型的差距仅为2.7个百分点。
与此同时,美国在高影响力专利方面仍占优势;中国在论文发表量、引用率、专利总量和工业机器人安装量方面全面领先。韩国则以人均AI专利数量位居世界第一,表现出极高的创新密度。
这种格局意味着:能力层面的超越优势在消失,未来的竞争将更多体现在生态、应用、监管标准和人才储备上。
三、负责任AI:监管在追赶,事故在增长
3.1 能力基准与安全基准的"双速"
几乎所有顶级前沿模型开发者都会公开其模型在能力基准上的测试结果(MMLU、GPQA、SWE-bench等),但在负责任AI(RAI)基准上,情况截然不同。
报告发现,在BBQ(公平性与偏见)、HarmbBench(有害内容)、StrongREJECT(拒绝有害请求的鲁棒性)、MakeMePay(自主性与人类控制)等RAI基准测试中,大多数模型的测试结果条目是空白的。事实上,只有Claude Opus 4.5在超过两个RAI基准中报告了结果,只有GPT-5.2报告了StrongREJECT的结果。

图7:RAI基准测试报告现状——能力基准与负责任AI基准的"双速"(来源:AI Index 2026)
不公开不代表不做。各大实验室确实在进行内部红队测试和对齐评估,但这些努力很少通过统一的外部可比基准来披露。这使得外部研究人员、监管机构和公众无法对模型的安全特性进行独立核验。
3.2 AI事故激增:数字化风险的现实
记录在案的AI事故数量,从2024年的233件增至2025年的362件,增幅达55%。
这些事故涵盖了AI辅助欺诈(利用AI克隆品牌网站实施钓鱼)、AI系统在医疗建议中的幻觉问题、自动决策系统中的偏见问题等多个领域。随着AI部署规模扩大,事故数量的上升几乎是必然的——关键在于治理体系能否同步成熟。
3.3 幻觉与"知识-信念"混淆
报告提出了一个新颖而深刻的观察:AI模型在区分"知识"与"信念"方面存在系统性缺陷。
在一项新的准确性基准测试中,26个顶级模型的幻觉率从22%到94%不等。更有趣的发现在于:当一个错误陈述被呈现为"某人相信的"(Belief),模型能够较好地处理;但当同样的错误陈述被呈现为"你(用户)相信的",模型的表现便会崩溃。GPT-4o的准确率从98.2%骤降至64.4%,DeepSeek R1从90%以上骤降至14.4%。
这一发现揭示了当前语言模型的一个根本性认知缺陷:它们的"知识表示"方式使其难以维持稳定的事实立场,尤其在与用户互动时容易被对话情境所干扰。
3.4 透明度:在倒退
在Foundation Model Transparency Index(基础模型透明度指数)上,2023至2024年间,各主要模型的平均得分从37分升至58分。但2025年,这一均值下降至40分,出现了明显的倒退。这与上文提到的训练信息不再披露的趋势相互印证:随着AI能力竞争的白热化,透明度正在成为竞争中被牺牲的第一个价值。
四、经济冲击:投资洪流与劳动力地震
4.1 资金规模:历史性狂奔
2025年,全球企业AI投资总规模翻倍以上。其中私募投资增速最快,达127.5%,占总量的60%。生成式AI领域的投资增速更高达200%以上,几乎占所有私募AI投资的一半。新获得融资的AI公司数量增长71%,十亿美元以上融资事件数量几乎翻倍。
美国依然以压倒性优势领跑全球。2025年,美国私募AI投资规模为2859亿美元,是中国124亿美元的23倍以上。在生成式AI领域,美国的投资额已超过中国和欧洲的总和。

图8:全球AI私募投资事件平均规模(2013-2025)及大额融资分布(来源:Quid / AI Index 2026)
但这里需要一个重要注脚:私募投资数据大概率低估了中国的真实AI支出。中国政府的引导基金在2000-2023年间已累计向AI企业部署约1840亿美元,这部分资金并未计入常规私募统计。
2025年AI领域最具标志性的投资事件包括:OpenAI以3000亿美元估值完成400亿美元融资;Stargate项目宣布,由OpenAI、软银、甲骨文等联合发起,计划向美国AI数据中心基础设施投入最高5000亿美元;CoreWeave以230亿美元估值完成美国2021年以来最大规模科技公司IPO。
4.2 消费者价值:被免费获取的财富
报告首次对生成式AI的消费者剩余进行了估算,结论令人惊讶:
▶ 美国消费者剩余:1720亿美元/年截至2026年初(较一年前增长54%)
▶ 每用户中位价值:增长3倍2025至2026年一年内
值得注意的是,这些工具中的大多数对用户而言是免费或接近免费的。这意味着AI正在以一种几乎从未在历史上出现过的方式创造价值:用户免费获得了原本需要数百美元甚至更多才能购买的服务,而这一价值巨大的转移,在GDP统计中几乎是隐形的。
4.3 企业采用:从尝鲜到嵌入
麦肯锡全球调查数据显示,2025年全球有88%的受访企业已在至少一个业务职能中采用AI,较2024年的78%大幅提升。生成式AI已在70%的企业中用于至少一个业务职能。

图9:全球企业AI使用率(按地区,2023-2025)(来源:McKinsey / AI Index 2026)
从地区来看,欧洲(91%)和北美(90%)采用率最高,但大中华区(88%)和发展中市场(88%)紧随其后。中国和欧洲是过去一年增幅最大的两个地区。
然而,AI智能体(Agent)的企业部署仍处于极早期阶段——几乎在所有业务职能中,Agent的应用率都处于个位数。这与外部对"Agent时代已到来"的叙事存在相当大的落差。
4.4 就业:最年轻的人,首先受冲击
AI对劳动力市场的影响,已经开始在特定群体中以可量化的方式呈现,而非仅停留于预测层面。
在AI生产力提升最显著的软件开发领域,美国22至25岁开发者的就业人数,从2024年至今下降了近20%;而35岁以上开发者的就业人数仍在增长。

图10:AI对各职业生产力影响的研究汇总(来源:多项学术研究 / AI Index 2026)
从图10可以看出,AI对不同职业生产力的影响高度分化:营销团队的产出提升幅度最高(+50%),软件开发者(+26%)、客服人员(+14%-15%)、会计(+55%吞吐量)也有显著提升;但在需要更多判断性思考的任务中,提升效果较弱甚至出现负面效应——有研究发现,使用AI辅助开发的开发者,速度反而比不使用AI的开发者慢了19%,且存在感知与实际绩效的显著落差。
更值得警惕的是,报告指出:对AI的过度依赖可能存在"学习惩罚"——使用AI完成任务的员工,其自身技能积累的速度可能慢于独立完成任务的同行,从而在长期形成能力洼地。
整体宏观数据尚未出现大规模失业,但信号已经出现:1/3的受访企业预计未来一年将因AI而缩减劳动力规模,预期削减最多的领域是服务运营、供应链管理和软件工程。
五、AI与科学:从加速工具到替代研究员
2026年版报告首次设立独立的"AI与科学"章节,这本身就是一个信号:AI对科研范式的影响已经深刻到需要单独追踪的程度。
2025年,AI相关科学论文总数约8万篇,较2024年增长26%。AI在自然科学领域的论文贡献占比已达到5.8%至8.8%(依领域而定),而2010年时这一比例不足1%。
5.1 "小模型打败大模型":化学与蛋白质领域
一个有趣的规律在科学AI领域反复出现:大参数量不等于最优性能。
MSAPairformer:仅1.11亿参数的蛋白质语言模型,在ProteinGym基准上超越了此前所有最优方法。
GPN-Star:2亿参数的基因组学模型,性能超越了拥有400亿参数的竞争模型。
在ChemBench(化学)基准上,前沿模型平均超越人类化学家,回答了2700余道化学题。但同一批模型在基础任务上也出现令人困惑的失败,再次印证"锯齿边界"的普遍存在。
5.2 虚拟细胞:生命科学的范式转移
2025年出现了一个新兴前沿:虚拟细胞模型(Virtual Cell Models)。Arc Institute发布的Evo 2、DeepMind的AlphaGenome,以及State等模型,旨在无需实验室湿实验便可预测细胞对药物和基因扰动的响应。这是一种从"加速实验"到"部分替代实验"的质变——尽管当前系统仍需实验验证,但方向已经清晰。
在地球科学领域,AI智能体在Earth科学问题上的回答准确率仅为33%,代码运行失败率高达58%——这提示我们,即便是在科学领域,AI的能力边界也远未统一。
5.3 科学研究的"复制危机"
报告提出了一个严峻的新问题:AI模型在复现已发表论文结论方面的能力极为有限。在天体物理学的ReplicationBench基准上,前沿模型的论文级复现得分低于20%;在地球观测问题上,正确率仅为33%。
这意味着,尽管AI在标准化基准上表现出色,但真实科研工作中涉及的细节判断、隐性知识和非标准化流程,仍然远超当前AI的能力范畴。
六、AI与医疗:从实验室到病床,速度与质量的张力
6.1 临床笔记的革命:医生减负83%
2025年,AI医疗领域最具规模化落地效果的应用,是环境型AI病历记录(Ambient AI Documentation)——即AI实时监听医患对话,自动生成临床笔记。
多个医院系统的数据显示,引入这一工具后,医生撰写病历的时间减少了最高83%,职业倦怠感显著降低;其中一家医院系统报告的投资回报率高达112%。这是迄今为止AI在临床环境中可量化证明经济价值最清晰的案例之一。

图11:患者对AI在医疗中应用的认知研究文献增长(2020-2025)(来源:RAISE Health / AI Index 2026)
6.2 证据基础:仍然薄弱
然而,报告对临床AI整体证据基础的评估相当谨慎:
一项涵盖500余项临床AI研究的综述发现,将近一半的研究依赖的是考试式问题(Exam-style Questions),而非真实患者数据;只有5%的研究使用了真实临床数据。这意味着,当前临床AI研究领域存在大量"在测试中表现优异但尚未经真实世界验证"的系统。
FDA已批准AI/ML辅助医疗器械超过950项,其中影像学AI占大多数。但获批并不等同于实证有效——监管批准路径与严格的临床随机对照试验之间存在本质差异。
6.3 患者视角:医生背书是关键
患者对AI在医疗中应用的研究文献从2020年的9篇激增至2025年的102篇。研究主流发现是:患者倾向于接受AI在辅助性角色(而非自主决策)中的应用,并且AI的接受度在很大程度上取决于医生是否背书,而非技术本身的水平。这对AI医疗产品的推广路径有重要启示。
七、AI与教育:政策在追赶,技能在重构
7.1 学生的现实:80%已在使用AI
美国超过80%的高中生和大学生,目前已将AI用于学校相关任务,生成式AI成为他们最常用的研究、文章编辑和头脑风暴工具。
但政策层面的准备严重不足:只有一半的中学和高中设立了AI使用政策,在已有政策的学校中,只有6%的教师认为这些政策足够清晰。这一现象在美国尤为突出,在其他国家亦普遍存在。
7.2 高等教育:CS退潮,AI专业方向逆势增长
一个有趣的分叉正在出现:2024至2025年间,美国四年制大学的计算机科学(CS)招生人数下降了11%,而AI相关研究生课程的毕业生数量则增长了17%。
更值得注意的是新增AI博士的流向:2022至2024年,美国和加拿大的AI博士毕业人数增长了22%,但这些增量全部流向了学术界,而非产业界——逆转了过去十年AI博士以进入产业为主流的趋势。这对产业AI人才供给的长期影响值得持续关注。
7.3 K-12教育:政策滞后的全球现象
全球超过90%的国家已在中小学开设计算机科学课程,但AI专门教育的推进明显滞后。中国和阿联酋已从2025-26学年起强制推行AI教育,成为全球在国家层面将AI纳入必修课程的先行者。
在非正式教育领域,AI技能的自学速度已超过正规教育体系:工程导向型AI技能增速最快的国家依次是阿联酋、智利和南非。AI素养(基础理解)的扩散速度在大多数国家快于工程技能,但两者都在快速增长。
八、政策治理:主权争夺与监管分歧
8.1 "AI主权":2025年最重要的新政策范式
如果要用一个词概括2025年全球AI政策的核心趋势,那就是"AI主权"(AI Sovereignty)——各国政府建立或增强对本国AI能力自主控制的战略目标。
报告将AI主权拆解为五个维度:基础设施主权(数据中心与算力)、数据主权(数据本地化存储)、模型主权(本土模型开发)、应用主权(特定场景的本土应用)、人才主权(AI人才的本土培育与保留)。
欧洲和中亚地区在2018至2025年间,将国家支持的AI超算集群从3个扩展至44个。南亚、拉丁美洲和中东地区则分别只有2个、3个和8个,基础设施主权的不均衡分布,直接决定了这些地区在AI时代的战略自主空间。
8.2 监管走向:欧美分叉
2025年全球AI监管出现了历史性的方向分叉:
欧盟:EU AI Act的首批禁止性条款正式生效,标志着全球首个综合性AI法规开始进入执行阶段。
美国:联邦层面转向去监管化(Deregulation)方向,撤销了拜登政府时期的AI行政令,强调技术创新优先。
日本、韩国、意大利:各自通过了国家层面的AI专项立法,但具体取向各有侧重。
发展中国家:在2024年新发布的国家AI战略中,超过一半来自发展中国家,标志着全球南方正式进入AI政策博弈版图。
在美国立法活动层面,国会听证中涉及AI的证人数量,从2017年的5人增至2025年的102人(增幅约20倍),其中产业界证人的占比从13%升至37%,成为最大的证人群体;学术界占比则降至15%。
8.3 公共投资:超级大国的AI基础设施竞赛
在公共资金投入方面,美国各联邦机构的AI相关支出持续攀升,美国国防部是最大的AI资金注入方。欧盟则通过地平线欧洲、数字欧洲等多个框架,重点资助AI研究、医疗、气候和农业等应用领域。
九、公众认知:乐观与焦虑的平行上升
9.1 全球情绪:矛盾共存
Ipsos 2025年在30个国家对超过2.3万名成年人进行的调查显示:认为AI产品和服务利大于弊的受访者比例,从2024年的55%升至59%;但同期表示AI产品让他们感到紧张的比例,也上升至52%。乐观与焦虑在同步上升。

图12:"AI产品利大于弊"——各国受访者比例与2022-2025年变化(来源:Ipsos / AI Index 2026)
东南亚是全球AI乐观情绪最高的地区:在马来西亚、泰国、印度尼西亚和新加坡,超过80%的受访者预计AI将在未来3至5年内深刻改变他们的生活。印度则出现了所有受调查国家中最大的"焦虑感"跃升(+14个百分点)。
从全球职场角度,58%的员工报告在工作中定期或半定期使用AI,但在印度、中国、尼日利亚、阿联酋和沙特阿拉伯,这一比例均超过80%,再次体现了新兴经济体的高采用率。
9.2 专家与公众的50分鉴
报告揭示了一个巨大的认知鸿沟:AI专家与美国普通公众对于AI未来影响的判断,存在系统性且数十个百分点级别的差距。
▶ 对工作影响的积极预期:专家73% vs 公众23%相差50个百分点
▶ 对经济影响的积极预期:专家69% vs 公众21%相差48个百分点
▶ 对医疗影响的积极预期:专家84% vs 公众44%相差40个百分点
几乎唯一例外的共识领域是:AI对选举和人际关系的负面影响,两个群体的判断较为一致。
这种认知鸿沟本身,就是一个重要的社会风险信号。公众的低信任感如果不被认真回应,将成为AI治理和社会接受度的重要障碍。
9.3 最低信任度:美国对本国政府的信心
在被调查国家中,美国受访者对本国政府负责任地监管AI的信任度,以31%位列所有受调查国家之末——全球平均水平为54%,新加坡为81%,印度尼西亚为76%。欧盟在全球范围内被认为是比美国或中国更值得信赖的AI监管机构,25个国家的调查中,信任欧盟的中位数为53%,美国为37%,中国为27%。
十、写在最后:速度与秩序之间
读完这份报告,我脑海中浮现出联席主席的那句话:"数据并不指向单一方向。"这是一种真正的诚实。
AI的技术进步令人叹服,但它并没有让我们离一个答案更近,而是把更多问题摆上了桌面:
能力飞速前进,而评估体系、治理框架、教育系统、劳动力结构——所有的配套系统——都在以慢得多的速度适应。差距,正是今天最大的风险所在。
从投资人的视角看,2025年是AI领域有史以来资金最密集的一年,但这并不意味着每一分投资都能实现价值兑现。企业采用率的上升与AI Agent实际部署的低个位数之间,隐藏着大量尚未被市场检验的预期。
从政策制定者的视角看,"AI主权"已经不可回避。算力、数据、模型、应用、人才——这五个维度的自主能力,将在未来十年里决定一个国家在AI时代的战略空间。中国在论文发表和专利申请方面的领先,与美国在顶级模型数量和风险投资方面的优势,构成了一个尚未分出胜负的博弈结构。
从创业者的视角看,这份报告告诉我们:AI的锯齿边界,恰恰是创业机会的所在。每一个"AI能力的盲点",都可能是一个细分领域的入口。而那些能够弥合"AI能力"与"真实场景需求"之间鸿沟的系统——正是X-Ventures AI等创业平台正在探索的方向。
最后,值得记住的是那组公众认知数据:59%的人认为AI利大于弊,同时52%的人表示对AI感到紧张。乐观与焦虑并非矛盾,它们是同一个现实的两面。
这个现实是:一个真正意义上的新技术范式,正在比我们所有人预期的速度更快地到来。
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
AI硬件(AI芯片、边缘计算设备、机器人、智能传感器等)正处于爆发前夜,但供应链分散、上下游对接效率低。最近我们策划打造华东地区首个聚焦《AI硬件供应链》的垂直大会,邀请AI芯片设计公司、边缘AI芯片厂商、小型机器人方案商、低功耗电源芯片厂商、代工厂、资本方及终端品牌,围绕「国产替代、成本控制、量产落地」展开主题演讲与闭门对接会。如果你是AI硬件创客、AI硬件上下游供应链、相关投资机构及合作伙伴请入群交流并备注来意:

本文数据均来源于斯坦福大学HAI《2026年AI指数报告》
W创会客厅|转载请注明出处
夜雨聆风