
报告的核心结论——AI 技术能力正在以前所未有的速度爆发,但社会的治理、伦理和安全框架严重滞后,形成了“技术狂奔、治理跛脚”的失衡局面。
以下是报告核心要点:
一、 技术能力:爆发式增长与“偏科”现象
普及速度创纪录:生成式 AI 仅用 3 年渗透率即达 53%,快于 PC 和互联网。全球 88% 的组织已采用 AI,约 80% 的大学生将其用于学业。
性能逼近人类:前沿模型在博士级科学问题、数学竞赛(如 IMO)及编程(SWE-bench)上达到或超越人类水平。
“锯齿状前沿”(Jagged Frontier):AI 能力极不均衡。例如,模型能解奥数金牌题,但读取模拟时钟的正确率仅约 50%;实验室机器人成功率近 90%,但在真实家庭环境中仅能完成 12% 的任务。
二、 中美竞争:差距基本消失,模式分化
性能持平:截至 2026 年 3 月,中美顶级模型性能差距仅约 2.7%,呈现交替领先态势。
优势分野:
美国:在顶级模型数量、高质量专利及企业主导力(>90% 前沿模型来自企业)上占优。
中国:在论文数量/引用量、专利总量及工业机器人安装量上领先。
三、 科学前沿:虚拟细胞与 AI 科研
虚拟细胞崛起:Evo2、AlphaGenome 等模型旨在预测细胞对药物/基因扰动的反应,成为 2025 年新热点,但尚需实验验证。
科研参与度激增:2025 年自然科学领域 AI 相关论文超 8 万篇(较 2024 年增长 26%),AI 开始自主执行科研任务,但完全由 AI 做出的已验证发现仍极少。
四、 社会影响:红利与代价并存
生产力悖论:在客服、编程等领域带来 14%-26% 的效率提升,但在复杂判断任务中效果弱甚至为负。
就业冲击显性化:美国 22-25 岁年轻软件开发者的就业人数在 2024 年下降近 20%,显示入门级岗位受冲击明显。
环境代价巨大:AI 数据中心总功率达 29.6 吉瓦(相当于纽约州峰值用电),GPT-4o 推理的年耗水量可能超过 1200 万人的饮用水需求。
五、 治理挑战:安全滞后与信任危机
安全严重滞后:AI 安全事故从 2024 年的 233 起激增至 2025 年的 362 起。企业普遍报告性能,却很少披露负责任 AI 的评估结果。
信任鸿沟:73% 的专家认为 AI 对工作有积极影响,而公众持此看法的仅 23%。公众对政府监管 AI 的信任度普遍较低(美国仅 31%)。
教育政策脱节:超 80% 学生使用 AI,但仅约一半的初高中制定了相关使用政策。
夜雨聆风