2026年4月29日AI日报 | Claude扩连接器,OpenClaw提性能,开源模型继续卷

1. Claude 推出创意软件连接器,直接打通 Blender 和 Adobe 等工具
Anthropic 为 Claude 发布了一批创意软件连接器,用户现在可以直接在对话界面里操控 Blender、Adobe Creative Cloud、Ableton、Canva、Autodesk Fusion 等行业工具,把自然语言指令直接转成创作操作。
-
覆盖 3D 建模、图像视频编辑、音乐制作和实时视觉演出等多个场景
-
Blender 集成尤其深入,支持分析场景、批量改属性,甚至基于 Python API 添加自定义工具
-
Anthropic 同时加入 Blender 发展基金,开始更深参与开源创意生态
2. OpenClaw 发布 2026.4.26 版本,插件系统大幅提速
OpenClaw 发布 2026.4.26 版本,这次核心是对插件系统做了深度重构,把启动和首次响应速度压到了毫秒级,同时补齐了多项新能力和迁移支持。
-
插件首次输出时间从 1 秒降到 43 毫秒,启动时间从 265 毫秒降到 8 毫秒
-
新增 Google Live Talk 模式、Cerebras Provider 和 migrate 迁移命令
-
本地模型兼容性和稳定性做了较大修复,QQBot 与 Yuanbao 的渠道区分也更清晰
3. 面壁智能开源 MiniCPM-o 4.5,主打端到端全双工全模态
面壁智能联合清华等机构发布 MiniCPM-o 4.5,并称其为业界首个端到端全双工全模态大模型。模型支持视频、音频、文本流输入,以及文本和语音连续输出,强调实时交互能力。
-
参数规模约 9B,基于 Omni-Flow 框架,支持统一时间轴下的毫秒级交互
-
量化后仅需约 12GB 显存即可运行全双工模式,消费级显卡也能部署
-
提供在线 Demo、API、端侧安装包和完整开源代码,面向开发者和普通用户开放
4. Cognition 推出 Devin 终端版,本地命令行可无缝接力云端
Cognition 正式发布 Devin Terminal,把云端智能体能力带到本地命令行。它的核心卖点不是单纯 CLI 化,而是本地和云端任务可以无缝交接,适合长任务和复杂开发流程。
-
本地跑不动的任务可自动转移到云端虚拟机继续执行
-
支持后台测试、自动修复、生成 PR,多智能体还能并行处理同一代码库
-
兼容 Anthropic、OpenAI、Google 及自家 SWE-1.6,多模型路由更灵活
5. 蚂蚁开源 Ling-2.6-flash,104B 总参数瞄准真实 Agent 场景
蚂蚁集团百灵团队正式开源 Ling-2.6-flash。这是一款面向真实 Agent 工作负载的 Instruct 模型,采用混合线性注意力和高度稀疏 MoE 架构,在吞吐和长上下文上比较激进。
-
总参数 104B,激活参数 7.4B,原生支持 262K 上下文
-
提供 BF16、FP8、INT4 多种版本,并获得 SGLang、vLLM 的 Day-0 支持
-
官方称在 4×H20 环境下推理速度可达约 340 tokens/s,吞吐表现突出
6. Claude Code 新增手机推送通知,长任务完成会主动提醒
Claude Code 最近新增手机推送通知功能。用户在手机安装 Claude App 并完成配对后,测试、重构等长任务跑完会直接推送到手机,减少反复盯终端的焦虑。
-
要求 Claude App 版本不低于 v2.1.110,并在配置里开启相关选项
-
除手机推送外,也支持 Ghostty、Kitty 等终端桌面通知和声音提醒
-
这让 Claude Code 的“派活、执行、回报”闭环更完整,智能体味道更强
7. 英伟达开源 Nemotron 3 Nano Omni,统一处理多模态输入
NVIDIA 发布开源多模态模型 Nemotron 3 Nano Omni,主打在单一推理循环中统一处理视频、音频、图像和文本,定位更像 Agent 系统里的感知子模型。
-
基于 30B-A3B 的 Mamba-Transformer 混合专家架构
-
模型权重、数据集和训练方法都已开放,支持 Hugging Face 和多种云平台部署
-
可运行在 vLLM、SGLang、TensorRT-LLM 等框架上,工程落地友好
8. OpenAI 确认本周继续更新,并重置 Codex 速率限制
OpenAI 方面确认本周还会继续发布更新,同时 Codex 负责人 Tibo 宣布,为所有付费用户重置 Codex 的速率限制,方便大家继续用 GPT-5.5 做开发。
-
此次重置面向所有付费用户,核心目的是释放更多开发使用额度
-
官方表态称 Codex 已进入“自我加速”阶段,后续会持续快速迭代
-
对开发者来说,这更像是一次配额层面的短期放量信号
9. Poolside 发布 Laguna 系列模型,XS.2 开源并支持本地运行
Poolside 发布首批 Laguna 系列模型,包括大模型 Laguna M.1 和开源权重模型 Laguna XS.2。后者更强调本地 Agent 编码和长任务处理能力。
-
Laguna M.1 为 225B 总参数、23B 激活参数,在 SWE-bench Pro 和 Terminal-Bench 2.0 上给出不错成绩
-
Laguna XS.2 为 33B 总参数、3B 激活参数,支持原生推理和按请求开启思维模式
-
XS.2 采用 Apache 2.0 开源协议,可在 36GB内存的 Mac 上运行,已上线 Hugging Face 和 Ollama
10. Google 获准让 Gemini 用于机密网络,军方合作继续扩大
Google 已与美国国防部签署协议,允许 Gemini AI 模型在机密网络中用于合法政府用途。Google 也因此成为继 OpenAI 和 xAI 后,又一家加深与美国军方合作的 AI 公司。
-
协议属于此前 2 亿美元合同的一部分,支持政府请求调整安全设置和过滤器
-
这意味着 Gemini 正式进入更高敏感级别的政府使用环境
-
Google 内部对此有明显反对声音,约 950 名员工联名表达担忧
11. DeepSeek 将 V4-Pro 的 2.5 折优惠延长到 5 月底
DeepSeek 宣布,DeepSeek-V4-Pro 模型的 2.5 折优惠将延长至 2026 年 5 月 31 日 23:59,意味着开发者在接下来一个月仍可按更低成本调用该模型。
-
官方已同步更新 API 定价页面
-
折扣期内调用 V4-Pro,可继续享受大幅降价
-
对预算敏感的团队来说,这会直接影响模型选型和调用策略
声明:本内容由AI生成,可能包含不准确或推测性信息,请读者自行甄别并谨慎参考。
欢迎点赞收藏


夜雨聆风