
OpenAI 扩大网络安全信任访问计划,GPT-5.4-Cyber 面向防御者开放
OpenAI 正式推出 GPT-5.4-Cyber,并同步扩大网络安全信任访问计划,核心不是做更“猛”的通用模型,而是为合法防御场景放宽能力边界,让安全团队能把 AI 真正接进高强度工作流。
这是 GPT-5.4 的网络安全宽松版,支持二进制逆向等高级防御任务
重点面向安全供应商、组织和研究人员,小范围迭代开放
个人防御者与企业团队也可通过身份验证流程申请访问
Gemini Robotics-ER 1.6 发布,机器人开始读懂复杂工业仪表
Google DeepMind 发布 Gemini Robotics-ER 1.6,继续把“推理优先”路线推进到机器人世界,重点强化视觉空间理解、多视角推理和任务成功检测,让机器人更像真正能干活的执行体。
新增仪器读取能力,可精准读取复杂工业仪表与视镜
视觉与空间推理、多视角理解等关键能力全面增强
已通过 Gemini API 和 Google AI Studio 向开发者开放
百度开源 ERNIE-Image,8B 模型主打中文长文本与结构化生成
百度正式开源 ERNIE-Image,把重点放在“好看”之外的另一件大事上:可控性。它不只追求画质,还在中文长文本渲染、复杂指令遵循、海报与漫画等结构化内容上正面发力。
基于 8B 单流 Diffusion Transformer,支持高可控图像生成
擅长中英长文本渲染、海报漫画等复杂结构化视觉内容
同步开源标准版与 Turbo 版,并支持 Diffusers、SGLang 快速接入
Midjourney 发布 V8.1,速度与成本同时拉出三倍差距
Midjourney 推出 V8.1,新版本一边把标志性美学风格重新拉回,一边把速度和成本做了大幅优化,明显是在把“创作质感”和“商业可用性”一起往上推。
原生支持 2K HD 渲染,官方称美学风格全面回归
相比 V8 生成速度提升 3 倍,成本降低 3 倍
Image prompts 回归,同时上线 Describe、moodboards 和 srefs
Audio Flamingo Next 开源,长音频理解开始进入 128K 时代
NVIDIA 联合马里兰大学发布 Audio Flamingo Next,把长音频理解继续往前推,支持 30 分钟复杂音频输入和 128K 上下文,不再只做语音识别,而是冲着更完整的音频推理与时间理解去的。
系列包含问答版、时间推理版和长描述版三个 8B 模型
通过 Temporal Audio CoT 与 RoTE 技术强化长音频时间归因能力
模型权重已上 Hugging Face,但仅限非商业研究用途
BytePlus 推出 Seedance 2.0 接口,视频生成开始冲一致性与可控性
字节旗下 BytePlus 上线 Seedance 2.0 接口,方向非常明确:视频生成不能只会“出片”,还要在一致性、控制力和工作流可用性上达到生产级标准。
面向创作者与团队开放,重点解决生成内容不稳定问题
强调视频一致性与更强控制能力,贴近真实制作流程
标志着 AI 视频从实验演示进一步走向生产就绪状态
Claude Code 桌面端重构,多会话并行让 AI 编程更像 IDE
Anthropic 重构桌面版 Claude Code,新版核心变化不是界面换皮,而是工作流升级:开发者可以在一个窗口内并排跑多个会话,把终端、编辑、预览和 diff 全都收进同一个环境里。
支持多会话并行运行,单窗口内就能同时修 Bug、写测试、看改动
内置终端、文件编辑、HTML/PDF 预览和更快的 diff 查看器
完全兼容 CLI 插件,桌面端与命令行工作流开始真正打通
MiniMax M2.7 开源,自我进化机制开始改写智能体系统能力
MiniMax 开源 M2.7,这次最值得看的不是模型权重本身,而是“自我进化”机制:智能体不只做任务,还会反思错误、修改工具与规则、决定回滚还是保留,开始真正优化“模型之外的系统”。
把技能、工具、记忆和工作流规则都视为可重写对象
在 22 个 MLE Bench Lite 竞赛中全自动跑出最好 9 金成绩
模型权重不变,提升集中发生在模型周围的智能体系统层
Meta AI 推出沉思模式,最多 16 个智能体并行推理
Meta 开始为 Meta AI 推送“沉思模式”,核心思路不是单模型更努力思考,而是让多个智能体同时并行推理,再把结果汇总成统一回答,进一步把多 Agent 协作推向产品层。
单个提示词最多可调用 16 个智能体并行工作
用户可在应用中手动切换是否启用沉思模式
这类“重推理模式”正在从实验形态走向主流产品能力
MiniMax Audio 升级 Music 2.6+,AI 音乐生成继续向创作工具靠拢
MiniMax Audio 发布 Music 2.6+,继续把 AI 音频从语音和配音扩展到音乐生成本身。虽然细节披露不算多,但方向已经很清楚:要把音乐创作变成普通用户也能直接调用的能力层。
新版本重点升级音乐生成能力,强化创作场景可用性
面向音频生成与艺术创作流程,继续扩展 MiniMax Audio 边界
也意味着 AI 音乐工具竞争正在从“能生成”转向“更适合创作”
声明:本内容由AI生成,可能包含不准确或推测性信息,请读者自行甄别并谨慎参考。
欢迎点赞收藏


夜雨聆风