#AI新闻#AI周报

新闻日期:2026年4月6日 - 4月12日
通勤听新闻来啦~本次18分钟
— 本周头条 Top Headlines —
Anthropic 发布 Claude Mythos Preview,启动 Project Glasswing 网络安全计划
Anthropic 于4月7日发布了新一代前沿模型 Claude Mythos Preview,该模型在通用任务上表现强劲,但在网络安全领域的能力尤为突出——它已自主发现数千个零日漏洞,并独立利用了 FreeBSD 一个长达17年的远程代码执行漏洞。由于该模型的攻防能力极强,Anthropic 选择不公开发布,而是通过 Project Glasswing 计划将其限制性地提供给 AWS、Apple、Google、Microsoft 等关键合作伙伴和开源安全组织,并承诺投入最高1亿美元使用额度和400万美元直接捐赠。资讯来源:TechCrunch,2026年4月7日
OpenAI 确认下一代模型 GPT-6(代号 Spud)将于4月14日全球发布
Sam Altman 确认 GPT-6 的预训练已于3月24日完成,OpenAI 于4月7日正式宣布该模型将于4月14日发布。据泄露信息,GPT-6 采用双层推理框架,幻觉率降至0.1%以下,具备原生多模态能力(文本、音频、图像、视频)和200万 token 上下文窗口,性能较 GPT-5.4 提升约40%。此前 OpenAI 已关停视频模型 Sora,将全部 GPU 资源集中用于 GPT-6 的开发。资讯来源:FindSkill.ai,2026年4月7日
Musk 诉 OpenAI 案庭审在即,索赔超1340亿美元并要求罢免 Altman
Musk 与 OpenAI 的诉讼即将于4月27日在加州奥克兰联邦法院开庭。Musk 在4月7日扩大诉求,要求法院罢免 Sam Altman 的 CEO 职位,恢复 OpenAI 的非营利组织身份,并索赔1340亿美元。OpenAI 于4月11日反击,指控 Musk 在庭审前夕"突袭式"更改诉求,同时正式请求加州和特拉华州总检察长调查 Musk 的反竞争行为。资讯来源:Bloomberg,2026年4月7日-11日
Sam Altman 旧金山住宅遭燃烧弹袭击,嫌疑人已被逮捕
4月10日凌晨约3:40,一名20岁男子向 Sam Altman 位于旧金山 Russian Hill 的住宅大门投掷燃烧弹,造成外门起火但无人受伤。嫌疑人随后前往 OpenAI 办公室威胁"烧毁大楼",被旧金山警方逮捕。该事件发生在《纽约客》发表一篇基于100多人采访的深度调查报告之后,文章对 Altman 的诚信和领导力提出了质疑。Altman 在4月11日发表长文回应,称该报道具有"煽动性"。资讯来源:TechCrunch,2026年4月10日-11日
智谱正式开源 GLM-5.1,SWE-Bench Pro 首次由开源模型登顶
智谱(Z.ai)于4月7日以 MIT 许可证在 Hugging Face 上发布了 GLM-5.1 全部权重。该模型采用 MoE 架构,总参数754B,每次推理激活约40B,支持200K 上下文窗口。在 SWE-Bench Pro(专家级真实软件工程基准)上以58.4分登顶,超越 GPT-5.4(57.7)、Claude Opus 4.6(57.3)和 Gemini 3.1 Pro(54.2),这是开源模型首次在该核心基准上全面超越所有闭源模型。资讯来源:ModemGuides,2026年4月7日
Anthropic 年化营收突破300亿美元,首次超越 OpenAI
据本周多家媒体报道,Anthropic 的年化营收已飙升至300亿美元以上(2025年底为90亿美元),首次超过 OpenAI 的约250亿美元。公司已拥有超过1000家年消费超百万美元的企业客户,并于近期完成300亿美元 G 轮融资,估值达3800亿美元。这一里程碑标志着 AI 大模型市场格局正在发生根本性转变。资讯来源:天脉财经,2026年4月第二周
— 研究与突破 Research & Breakthroughs —
MIT 提出 CompreSSM:用控制论压缩状态空间模型,大幅降低训练成本
MIT 研究团队在 ICLR 2026 上发表了 CompreSSM 技术,利用控制论原理对 AI 模型进行训练阶段压缩,在不牺牲性能的前提下显著降低计算成本。该方法特别适用于近年来兴起的状态空间模型(SSM),为 Transformer 之外的高效架构提供了新的优化路径。资讯来源:Crescendo AI,2026年4月第二周
神经-符号混合方法实现 AI 能耗降低100倍
研究人员发表了一种将神经网络与人类式符号推理相结合的新方法,在保持甚至提升准确率的前提下,将 AI 系统能耗降低最高100倍。该研究于4月5日发布,在全球 AI 算力需求和能源消耗持续飙升的背景下,为行业提供了一条可持续发展的技术路径。资讯来源:ScienceDaily,2026年4月5日
夏威夷大学发布物理约束机器学习新算法,让 AI 遵守物理定律
夏威夷大学 Mānoa 分校团队推出了一种新算法,显著推进了物理约束机器学习(Physics-Informed ML)领域的发展。该算法让 AI 在处理复杂数据集时严格遵循物理定律,有望在气候模拟、材料科学、流体力学等依赖物理精确性的领域发挥重要作用。资讯来源:ScienceDaily,2026年4月第二周
- 产业与商业 Industry & Business -
Eclipse Ventures 完成13亿美元融资,全面押注"物理 AI"
Cerebras 早期投资方 Eclipse Ventures 于4月7日宣布完成13亿美元新基金募集,资金分为5.91亿美元早期孵化基金和成长期基金两部分。Eclipse 不仅投资而且亲自孵化"物理 AI"创业公司,覆盖 AI 基础设施、机器人、自动驾驶、国防和能源等物理世界领域,已投组合包括 Wayve(自动驾驶)、Redwood Materials(电池回收)和 Bedrock Robotics 等。资讯来源:TechCrunch,2026年4月7日
Perplexity 年化营收达4.5亿美元,全面转向 AI Agent
Perplexity 的年化经常性收入在3月达到4.5亿美元,单月增长50%。增长引擎是2月25日推出的自主代理平台 Computer(整合19个专业 AI 模型执行复杂任务)和基于用量的信用定价模式。此外,其 Model Council 功能允许用户同时对比 GPT-5.2 和 Claude 4.6 等多模型输出,月活用户已超1亿。资讯来源:TechStartups,2026年4月8日
阿里巴巴宣布 AI 组织架构重大调整,强化大模型战略
4月8日,阿里巴巴集团 CEO 吴泳铭宣布 AI 相关组织调整,新设立集团技术委员会,升级通义大模型事业部。此前阿里已密集发布 Qwen3.6-Plus、Qwen3.5-Omni、Wan2.7-Image、Wan2.7-Video 等数款新模型,其中千问3.6-Plus 在 OpenRouter 平台成为首个单日调用量突破1万亿 Token 的模型,阿里正全面发力 AI Agent 主战场。资讯来源:36氪,2026年4月8日
Anthropic 扩大与 Google 和 Broadcom 的多 GW 级算力合作
Anthropic 于4月6日宣布大幅扩展与 Google 和 Broadcom 的下一代算力合作协议,规模达多个吉瓦级别。这是继其300亿美元 G 轮融资后的又一重大举措,表明 Anthropic 正在为 Claude Mythos 系列模型的大规模部署做准备,也反映了前沿 AI 实验室之间的算力军备竞赛正在升级。资讯来源:Anthropic 官网,2026年4月6日
- 工具推荐 New Tools & Open Source-
Cohere 发布开源语音识别模型 Transcribe,支持14种语言
Cohere 发布了 Transcribe,一个优化用于转录任务的开源自动语音识别(ASR)模型。该模型支持14种语言,可在消费级硬件上运行,在主流基准测试中取得了强劲表现,处理速度快,适合开发者和研究人员在本地部署使用。资讯来源:DevFlokers,2026年4月第二周
阿里通义实验室发布 Wan2.7-Video 视频生成模型
阿里通义实验室正式发布视频生成模型 Wan2.7-Video,支持全模态输入,以"叙事驱动"为核心能力。同期,京东在 Hugging Face 和 GitHub 上发布了统一多模态基础模型 JoyAI-Image 的图像编辑权重 JoyAI-Image-Edit,国内大厂在多模态生成领域的竞争持续升温。资讯来源:36氪,2026年4月第二周
Telegram 上线端侧 AI 消息编辑与 Bot 创建功能
Telegram 最新更新引入了完全私密的端侧 AI 消息编辑器、"bot-creates-bot"自动创建机器人功能以及投票功能的重大升级。其中端侧 AI 编辑器完全在设备本地运行,数据不上传服务器,在隐私保护方面树立了消费级 AI 产品的新标杆。资讯来源:AI News,2026年4月第二周
- 政策与法规 Policy & Regulation -
OpenAI 发布经济政策白皮书:提议机器人税、公共财富基金与四天工作制
OpenAI 于4月6日发布13页政策白皮书《智能时代的产业政策:以人为本的思路》,提出对 AI 自动化工作征收"机器人税"、建立公共财富基金,以及在不降薪的前提下补贴推行四天工作制。该提案被视为 AI 行业首次系统性地回应"AI 取代工作"的社会焦虑,但批评者指出 OpenAI 的政策建议可能是"监管虚无主义"的掩护。资讯来源:TechCrunch,2026年4月6日
OpenAI 发布儿童安全蓝图,并启动 AI 安全研究奖学金
OpenAI 于4月8日同时推出两项安全举措:一是"儿童安全蓝图"(Child Safety Blueprint),聚焦更新立法以涵盖 AI 生成的虐待材料、优化向执法部门的报告机制、以及将预防性保障直接集成到 AI 系统中;二是 Safety Fellowship 计划,面向外部研究人员开放 AI 安全与对齐研究项目(2026年9月至2027年2月)。资讯来源:TechCrunch,2026年4月8日
WGA 与好莱坞制片方达成四年期协议,大幅扩展 AI 保护条款
美国编剧工会(WGA)与美国电影电视制片人联盟(AMPTP)于4月4日-5日达成临时四年期协议。该协议在 AI 保护方面取得重大突破:正式确立"训练数据即财产"的概念,要求制片方在计划授权编剧作品用于训练商业 AI 系统时必须与 WGA 协商补偿,并扩大了工会获取制片方 AI 整合信息的权限。协议还包括3.21亿美元的医保基金注入。该协议于报告期前1-2天达成,其影响在本周持续发酵。资讯来源:Hollywood Reporter,2026年4月4日-5日
本周科普:Harness Engineering— 2026年最火的AI工程新范式
什么是 Harness Engineering?
Harness 直译为"线束"或"驾驭装置"。在AI语境下,Harness 是包裹在大模型/AI Agent 外面的完整基础设施层,负责管理 Agent 的长期运行任务。一个形象的比喻:如果把 LLM 比作 CPU,那 Harness 就是操作系统——它不是 Agent 本身,而是管控 Agent 如何运行的软件系统,包括工具调用权限、安全护栏、反馈回路、输出验证和可观测性等。
三代AI工程范式的演进
• 提示工程 — Prompt Engineering(2023-2024)
核心:设计好的指令。通过精心编写提示词,让模型输出更好的结果。
• 上下文工程 — Context Engineering(2025)
核心:设计好的上下文。不仅写好指令,还要为模型提供正确的背景信息、示例和知识。
• 驾驭工程 — Harness Engineering(2026)
核心:设计好的运行环境。构建约束、工具、反馈回路、验证系统和可观测性层,让AIAgent在生产环境中可靠运行。
为什么突然火了?
这个词在2026年初才进入主流,但它终于给工程师们"已经在做的事情"赋予了一个统一名称。以下数据说明了它的威力:
• 同一个模型(如 GPT-5 或 Claude 4),同样的数据和 Prompt,仅靠改变 Harness 设计,编程基准测试成功率从 42% 跃升至 78%——唯一的变量是模型的运行环境。
• OpenAI 内部实验:工程师使用 Codex Agent 在5个月内构建了一个包含约100万行代码的产品,通过约1500个自动化 PR 完成,全程零手写代码。
• 该概念由 Epsilla、OpenAI 等多方推动,已成为2026年AI工程领域最核心的讨论话题。
五大核心原则
• 约束(Constrain)— 限制 Agent 能做什么——防止越权操作和不可控行为
• 告知(Inform)— 为 Agent 提供充分的上下文和文档——让它"知道"该做什么
• 验证(Verify)— 自动检查 Agent 的输出——不盲信,持续验证结果质量
• 纠正(Correct)— 建立自动纠错机制——Agent 犯错时能自我修复
• 人在回路(Human-in-the-loop)— 关键决策点保持人类介入——高风险操作不完全放手
对行业的意义
Harness Engineering 的兴起标志着AI行业竞争焦点的根本转移:从"谁的模型参数更多、跑分更高"转向"谁能让AI Agent在真实生产环境中稳定、安全、高效地运行"。对开发者而言,这意味着AI工程师的核心技能正在从"写好 Prompt"进化为"设计好 Agent 的操作系统"。
关注+ 获取更多新信息
喜欢的也点点赞哈~我们下周见!
夜雨聆风