AI 资讯速读 – 2026-04-22
AI 资讯速读 – 2026-04-22
这一期内容的主线集中在AWS Bedrock、Claude Cowork、Amazon Bedrock、ChatGPT Images 2.0。
本次总结
这一期内容的主线集中在Anthropic / Claude、OpenAI / GPT / Codex、Google / Gemini / DeepMind,适合先抓住高频主题和代表性事件,再看各分组里的具体进展。
最值得先看的是 AWS Bedrock上线Claude Cowork服务:AWS宣布在Amazon Bedrock上支持Claude Cowork,为企业开发者提供在平台内使用Claude代码辅助的新方式,从个人扩展到组织级协作。
第二个观察点是 用户致信Anthropic恳求保留Claude 4.6模型,称其不可替代:一位Max级用户发布公开信,深情恳求Anthropic不要弃用Claude 4.6。用户表示4.6的思考节奏和同理心对神经多样性的自己至关重要,而Claude 4.7的快速和幻觉已对其项目造成实质性损害。
今日焦点
1. AWS Bedrock上线Claude Cowork服务
Anthropic / Claude 方向:
AWS宣布在Amazon Bedrock上支持Claude Cowork,为企业开发者提供在平台内使用Claude代码辅助的新方式,从个人扩展到组织级协作。
2. OpenAI发布ChatGPT Images 2.0图像模型,支持先推理后生成
OpenAI / GPT / Codex 方向:
OpenAI正式推出ChatGPT Images 2.0,核心变化是模型能先推理再生成,复杂任务可联网查资料。
新模型一次可生成8张连贯图,文字渲染更精准,并支持从3:1到1:3的多种宽高比和2K高清输出。
3. Google AI Studio 整合Gemini订阅,简化使用流程
Google / Gemini / DeepMind 方向:
Google宣布Google AI Studio加入Gemini Pro/Ultra订阅。
订阅后无需单独管理API密钥,可直接在AI Studio使用更高额度,包括Nano Banana Pro画图功能。
4. Kimi K2.6 展示两项复杂编码突破
Qwen / 通义千问 方向:
Kimi K2.6在12小时内自主优化8年老旧的金融匹配引擎,实现185%吞吐量提升。
另外,它还在Mac上成功用Zig语言部署Qwen模型,速度比LM Studio快20%。
资讯内容
1. Anthropic / Claude
这一组主要围绕 AWS Bedrock、Claude Cowork、Amazon Bedrock 展开。
AWS Bedrock上线Claude Cowork服务
AWS宣布在Amazon Bedrock上支持Claude Cowork,为企业开发者提供在平台内使用Claude代码辅助的新方式,从个人扩展到组织级协作。
用户致信Anthropic恳求保留Claude 4.6模型,称其不可替代
一位Max级用户发布公开信,深情恳求Anthropic不要弃用Claude 4.6。
用户表示4.6的思考节奏和同理心对神经多样性的自己至关重要,而Claude 4.7的快速和幻觉已对其项目造成实质性损害。
2. OpenAI / GPT / Codex
这一组主要围绕 OpenAI、ChatGPT Images 2.0、推理 展开。
OpenAI发布ChatGPT Images 2.0图像模型,支持先推理后生成
OpenAI正式推出ChatGPT Images 2.0,核心变化是模型能先推理再生成,复杂任务可联网查资料。
新模型一次可生成8张连贯图,文字渲染更精准,并支持从3:1到1:3的多种宽高比和2K高清输出。
OpenAI发布gpt-image-2用例示例库
OpenAI开发者官方发布gpt-image-2用例图库,提供实用示例。
同时改进对图表、信息图、漫画等多面板场景的生成能力。
访问
3. Google / Gemini / DeepMind
这一组主要围绕 Google AI Studio、Gemini、Ultra 展开。
Google AI Studio 整合Gemini订阅,简化使用流程
Google宣布Google AI Studio加入Gemini Pro/Ultra订阅。
订阅后无需单独管理API密钥,可直接在AI Studio使用更高额度,包括Nano Banana Pro画图功能。
4. Qwen / 通义千问
这一组主要围绕 Kimi K2.6、Mac、Zig 展开。
Kimi K2.6 展示两项复杂编码突破
Kimi K2.6在12小时内自主优化8年老旧的金融匹配引擎,实现185%吞吐量提升。
另外,它还在Mac上成功用Zig语言部署Qwen模型,速度比LM Studio快20%。
Qwen3.6 Plus在Code Arena排名升至第七
Qwen3.6 Plus在Code Arena以1476分升至第7名,较预览版提升16分,推动通义实验室升至实验室排名第三。
文本竞技场也提升13分至第36名。
5. 视频生成 / 多媒体
这一组主要围绕 Kimi K2.6 API、M tokens、t.co 展开。
Kimi K2.6 API正式上线,定价公布
Kimi K2.6 API已正式可用,支持原生多模态(文本/图像/视频)和256K上下文。
定价为输入$0.95/M tokens(缓存命中$0.16),输出$4.00/M tokens。
6. 开发工具 / Agent 工作流
这一组主要围绕 Hermes Agent、Web、t.co 展开。
Hermes Agent统一Web界面项目发布
开发者推出Hermes Agent统一Web工作界面,整合聊天、文件、记忆、技能、终端于一处。
CREAO
将日常AI交互转为自动化Agent:新工具CREAO可将与AI的一次成功对话直接保存为Agent,支持定时任务、连接Gmail等工具、使用用户账号操作社交媒体。
上手简单且实用。
官网:
7. 行业资讯 / 应用落地
这一组主要围绕 Kimi K2.6、Artificial Analysis、SOTA 展开。
Kimi K2.6成为Artificial Analysis上开源SOTA,并合作Fireworks AI:Kimi K2.6被评为Artificial Analysis平台当前开源SOTA。
同时宣布与Fireworks AI合作,其推理微调平台已支持K2.6生产部署。
阿拉伯语LLM评测基准QIMMA发布
Hugging Face博客发布了QIMMA قِمّة ⛰,一个专注于质量优先的阿拉伯语大模型排行榜,为阿拉伯语模型评估提供新标准。
8. 其他值得关注
这一组主要围绕 Kimi、FlashKDA、CUTLASS 展开。
Kimi开源高性能注意力内核FlashKDA
Kimi团队开源FlashKDA,基于CUTLASS实现的Delta Attention内核,在H20上比基线加速1.72–2.22倍,可作为flash-linear-attention的即插即用后端。
Moonshot AI开源高性能注意力内核FlashKDA,速度提升最高2.22倍
Moonshot AI开源了FlashKDA,一套为Kimi Delta Attention设计的CUTLASS内核。
在H20上相比Triton基线,可变长度任务最高可加速2.22倍。
项目采用MIT许可证,
夜雨聆风