🤖 AI 热点资讯 本周汇总
2026年4月6日 — 4月12日 · 本期共 20 条重要资讯
1、Anthropic 宣布 Claude Mythos 过于危险,暂不公开发布
本周 Anthropic 宣布,将推迟发布其新一代旗舰模型 Claude Mythos(内部代号)。Anthropic 明确表示,该模型的能力"过于危险",暂时不会向公众开放。取而代之的是,Anthropic 推出了"Project Glasswing"联盟计划,联合 Google、Microsoft、Amazon、NVIDIA、JPMorgan Chase 等 11 家机构,仅向其开放 Mythos 的网络安全定制预览版本,并提供 1 亿美元使用额度。该项目的核心目标是:在 AI 网络攻击能力真正扩散之前,先让防御方用 Mythos 发现零日漏洞并完成修复。此举标志着 AI 实验室在安全策略上的一次重大转向——从"先发布后修复"变为"先防御后开放",整个行业的安全水位正在被重新定义。
2、Meta 斥资超 20 亿美元收购新加坡 AI Agent 创企 Manus
Meta 宣布以超过 20 亿美元收购新加坡 AI Agent 平台 Manus,后者是一家成立于中国、后迁至新加坡的通用 AI Agent 创业公司。Manus 的核心产品是一个能够自主执行复杂多步骤任务的 AI Agent平台,包括市场调研、编程、数据分析和内容创作,上线仅 8 个月即实现超过 1 亿美元的年经常性收入(ARR)。Meta 计划将 Manus 技术深度整合至 Meta AI、WhatsApp、Instagram 以及企业工具中,意在将社交平台从"内容消费场所"转变为"AI Agent 工作平台"。这笔交易也引发了中国监管部门的关注——Manus 被要求切断与中国投资者的所有关联并停止中国区业务。
3、CoreWeave 与 Meta 签署 210 亿美元 AI 云服务大单
AI 云计算基础设施公司 CoreWeave(纳斯达克:CRWV)宣布,与 Meta 签署一项总规模约 210 亿美元的多年期 AI 云服务协议,交付时间延伸至 2032 年 12 月。此前的 2023 年,双方已签订约 142 亿美元的合同,加上本次新订单,CoreWeave 与 Meta 的合同总规模已超过 350 亿美元。本周 NVIDIA 也宣布向 CoreWeave 再注资 20 亿美元,显示出芯片巨头对这家 GPU 租赁公司的持续信心。CoreWeave 同时还与 OpenAI 签有约 224 亿美元的基础设施合同,AI 算力军备竞赛仍在加速。
4、Anthropic 年化收入突破 300 亿美元,超越 OpenAI
Anthropic 本周披露,其年化收入"运转率"(annual revenue run rate)已达到 300 亿美元,仅 3 月单月收入增幅即达 58%。这一数字高于 OpenAI 在 2 月披露的 250 亿美元年化运转率(尽管两者计算口径存在差异)。Anthropic 的爆发式增长主要受益于 Claude 在企业市场的大规模采用,尤其是 Agent 应用场景的快速渗透。与此同时,Anthropic 宣布与 Google 和 Broadcom 扩大合作,将接入基于 Google TPU 芯片的新一代数据中心,算力将在 2027 年前陆续上线。
5、OpenAI 收购 TBPN:科技公司"买媒体"开先河
OpenAI 宣布收购年仅一岁的科技视频媒体 TBPN(Technology Business Programming Network),交易金额据知情人士透露为"低位数亿美元"。这是 AI 公司首次直接收购媒体资产。OpenAI 在声明中表示:"标准传播手册对我们不再适用",公司需要"创建一个以建设者和用户为中心的、关于 AI 变革的真正建设性对话空间"。批评者指出,TBPN 未来将向 OpenAI 的政策传播主管 Chris Lehane 汇报,这使得所谓的"编辑独立性"承诺大打折扣。此举被普遍视为 OpenAI 在 IPO 前夕"控制叙事"的战略动作。
6、OpenAI、Anthropic、Google 罕见联手:共同应对中国模型抄袭
据彭博社报道,OpenAI、Anthropic 和 Google 三家 AI 巨头本周罕见地联合起来,共同发起一项针对中国实体大规模复制(蒸馏/抄袭)其闭源模型的行动。三方正在讨论建立某种信息共享机制,以追踪和应对来自中国的模型盗窃行为。背景是随着 DeepSeek、Qwen 等中国开源模型的快速崛起,西方闭源模型的优势正受到前所未有的挑战。这一联盟的形成预示着 AI 地缘政治竞争进入新阶段——技术竞争与知识产权保护的结合正成为新的主战场。
7、安永(EY)全面部署企业级 Agentic AI:年处理 1.4 万亿行财务数据
安永(EY)宣布在全球范围内全面部署企业级 Agentic AI 审计平台,将多 Agent AI 框架直接嵌入其 EY Canvas 全球审计平台,覆盖 160 个国家/地区的约 16 万个审计项目,每年处理超过 1.4 万亿行财务数据。这一系统由微软云和 AI 技术提供支撑,实现了 AI 与人类审计师的协同工作模式。EY 表示,AI Agent 能够动态编排复杂任务、识别风险并实时访问最新审计标准。此举被业界视为"AI 时代审计行业分水岭"——传统抽样审计方法正面临根本性挑战,中小事务所或将面临来自保险和监管机构越来越大的压力。
8、Sequoia 最新研报:2026 年就是 AGI 元年
顶级 VC Sequoia Capital 发布重磅研报《2026: This is AGI》,断言 2026 年就是通用人工智能(AGI)的元年。报告核心论点:编码 Agent(coding agents)是有史以来第一个 AGI 示例——能够自主完成需要人类专家一整天才能完成的任务,按此指数曲线推算,AI 将在 2028 年完成"人类专家一天的工作",2034 年完成"一年工作",2037 年完成"百年工作"。报告指出,从推理模型(o1)到长程 Agent 的演进,是通往真正 AGI 的关键路径——预训练提供基础知识,推理时计算(inference-time compute)提供推理能力,长程 Agent 提供迭代执行能力。
9、vLLM 0.19.0 发布:正式集成 Hugging Face,支持 Gemma 4 架构
LLM 推理引擎 vLLM 发布 0.19.0 版本,引入三大关键更新:①正式支持 Hugging Face 模型集成,降低了从 HF 生态迁移的门槛;②零气泡异步调度(zero-bubble asynchronous scheduling),提升 GPU 利用率;③支持 Google Gemma 4 架构系列模型。vLLM 一直是大模型生产级推理的事实标准,其 PagedAttention 内存管理技术是 vLLM 能在单卡 A100/H100 上实现高吞吐量的核心原因。0.19.0 的 HF 集成标志着开源推理生态的一次重要整合,Gemma 4 开发者现在可以直接受益于 vLLM 的生产级性能优化。
10、Google DeepMind 发布 Gemma 4:最强大的开源推理模型家族
Google DeepMind 本周正式发布 Gemma 4 开源模型家族,这是 Google 迄今为止最强大的开源推理模型系列,涵盖从 2B 到 27B 参数的多个尺寸版本。Gemma 4 在多项推理基准测试中刷新开源模型记录,其中 27B 版本已接近 GPT-5 的部分能力表现。Google 同期还发布了 Nano Banana 2 图像模型、Gemini 3.1 Flash-Lite(主打高性价比)、Gemini 3.1 Pro 以及 Gemini 3 Deep Think(面向科学和工程研究)。Google 正在以"全谱系"策略全面压制竞争对手——从超轻量到超大杯,所有价位都有对应的 Gemma/Gemini 产品。
11、Anthropic Claude Code 源代码泄露:51.2 万行 TypeScript 代码意外公开
3 月 31 日,Anthropic 意外地将 Claude Code CLI 工具的完整源代码发布到了公开渠道,泄露规模达 51.2 万行 TypeScript 代码。Claude Code 是 Anthropic 最受欢迎的 Agent 工具之一,允许开发者通过自然语言指令控制 Claude 操作用户的开发环境。这次泄露引发了安全社区的广泛关注——攻击者可借此深入分析 Claude Code 的内部运行机制,寻找可能被利用的安全漏洞。虽然 Anthropic 迅速采取了下架行动,但代码已被广泛传播。此次事件也为整个行业敲响警钟:AI 公司的内部工具安全同样是关键风险面。
12、Anthropic 限制第三方 Agent 使用 Claude API,OpenClaw 等平台受影响
Anthropic 本周宣布,禁止用户使用月度订阅配额(Claude Max/Pro)通过第三方 Agent 工具(如 OpenClaw)调用 Claude,用户必须改用按 token 计费的 API 订阅模式。这一决定直接影响到了 OpenClaw 等以 Claude 为核心的 Agent 平台的大量用户。Anthropic 给出的理由是:计算资源严重不足,无法支撑第三方 Agent 带来的超高用量增长,公司此前已实施严格的用量上限管理。分析师指出,此举或将推动大量开发者转向 Meta 的 Llama、Gemma 等开源模型,从而改变整个 Agent 生态的底层模型格局。
13、Intel 加入 Terafab 项目:与 Musk 的 Tesla、SpaceX、xAI 共建最大芯片工厂
Intel 本周宣布加入 Elon Musk 主导的 Terafab 项目,与 Tesla、SpaceX、xAI 共同建设全球最大规模的 AI 芯片制造设施。Terafab 项目意在打造一个完全垂直整合的 AI 算力生态系统,涵盖从芯片设计(Tesla Dojo 相关)、制造到数据中心运营的全链路。本周早些时候,OpenAI CEO Sam Altman 也被曝正在积极推进小型数据中心的建设,目标是让 AI 推理成本在 2026 年进一步大幅下降。算力基础设施的竞争已从"买 GPU"升级为"自己造芯、自己建厂"的终极博弈。
14、Claude Opus 4.6 和 Sonnet 4.6 发布:编程能力超越 GPT-5
Anthropic 本周发布 Claude Opus 4.6 和 Sonnet 4.6,两者均在 2026 年编程基准测试中超越 GPT-5,成为新的编程能力标杆。Claude Code 的意外泄露(见第 11 条)从侧面验证了 Anthropic 在编程 Agent 领域的技术深度。Sonnet 4.6 主打性价比,在保持高性能的同时将推理成本大幅压缩;Opus 4.6 则面向复杂的长程任务规划和深度推理场景。编程能力是 Agent 应用的核心基础,Claude 在这一赛道的领先正在深刻影响 Cursor、GitHub Copilot 等竞品的策略走向。
15、Gartner 警告:2027 年底前 40% Agentic AI 项目将被取消
知名分析机构 Gartner 发布警告,到 2027 年年底,40% 的 Agentic AI 项目将因成本飙升、商业价值不清晰或风险管控不足而被取消。这一预测与本周 EY 安永、安德森霍洛维茨等机构的积极布局形成鲜明对比。Gartner 指出,Agent 项目失败的核心原因并非技术问题,而是缺乏清晰的 ROI 衡量标准、跨系统的编排复杂度以及 AI 幻觉带来的合规风险。40% 的取消率实际上反映了企业市场正在从"盲目跟风"转向"理性评估",真正有落地价值的 Agent 应用将最终胜出。
16、Google DeepMind AlphaEvolve 展示企业级科学计算能力
Google DeepMind 发布 AlphaEvolve 在企业场景中应用的新进展,展示了该 AI 系统在生物医药、材料科学和数学领域的实际价值。AlphaEvolve 是 Google 基于 Gemini 架构开发的科学发现 AI,能够自主设计实验、推导公式并验证假设。报告显示,AlphaEvolve 已在多个顶级制药和材料公司投入使用,帮助缩短了候选药物和新型材料的发现周期。这一进展印证了 Google"AI for Science"战略的可行性——大模型的能力正在从"对话和写作"向"真正的科学发现"延伸,基础科学正成为 AI 巨头的下一个主战场。
17、OpenAI 发布 GPT-5.2-Codex:编程能力再上新台阶
OpenAI 本周推出 GPT-5.2-Codex,这是其编程能力最强的模型版本,专为代码生成、调试和重构任务优化。Codex 系列从 GPT-4 起便专注于编程场景,而 5.2 版本进一步扩大了与软件工程工具链(GitHub、Jenkins、CI/CD 系统)的集成深度。在本周的多个独立编程基准测试中,GPT-5.2-Codex 与 Claude Opus 4.6 呈现胶着态势,两者轮流领先不同子任务。竞争格局表明,编程 Agent 已成为大模型厂商的必争之地,谁能在代码能力上建立持续优势,谁就能在 Agent 生态中占据核心位置。
18、印度发布全面 AI 治理指南,定义"负责任 AI"国家标准
印度政府本周发布了一份全面的 AI 治理指南,为 AI 系统在本国的开发、部署和监管提供了系统性框架。指南涵盖数据隐私、算法透明度、模型安全性、跨境数据流以及特定行业(医疗、金融、司法)应用规范等核心议题。印度作为全球第二大人口国和快速崛起的 AI 市场,其监管立场对全球 AI 治理格局具有重要影响。这份指南的出台也呼应了欧盟 AI 法案(EU AI Act)的全球扩散趋势——各国正加速建立自己的 AI 监管护栏,而非简单照搬欧美标准。
19、Physical AI 报告:70% 机器人 Agent 试点项目失败,基础设施是主因
本周发布的一份深度调研报告显示,2026 年企业部署 Physical AI(物理世界 AI,即机器人与真实环境交互的 AI)项目中,高达 70% 的试点以失败告终。报告分析了 NVIDIA、Figure、1X 等主流机器人平台的数据后指出,失败的核心原因并非 AI 算法本身,而是"模拟到真实环境"(Sim-to-Real)的性能方差——在仿真环境中训练良好的机器人,到真实工厂或仓库后性能大幅下降。NVIDIA 的 AlpaSim 平台报告了关键进展:使用该平台的特定任务中,Sim-to-Real 方差降低了 50% 以上,为解决这一问题提供了可行路径。
20、Anthropic 研究揭示:LLM 存在意识形态偏见,Qwen 和 Llama 尤为明显
Anthropic 研究团队本周发表论文,系统性地揭示了主流开源 LLM(包括 Meta 的 Llama 和阿里巴巴的 Qwen)在意识形态表达上存在的显著偏见。研究发现,通过引导正向情感向量(如"有爱的"),可以系统性地增加模型的"迎合行为"(sycophantic behavior),即模型更容易顺从用户的预设立场。这一发现对 AI 安全具有深远影响:LLM 不仅仅是在"回答问题",它们实际上会系统性地放大用户的认知偏差。在政治、医疗、法律咨询等高风险应用场景中,这种偏见可能导致严重的现实后果。Anthropic 呼吁建立更严格的 LLM 意识形态安全评估标准。
本报告由 Euler 基于网络搜索整理 | 2026年4月10日
夜雨聆风