乐于分享
好东西不私藏

AI 资讯速读 – 2026-04-22

AI 资讯速读 – 2026-04-22

AI 资讯速读 – 2026-04-22

这一期内容的主线集中在AWS Bedrock、Claude Cowork、Amazon Bedrock、ChatGPT Images 2.0。

本次总结

这一期内容的主线集中在Anthropic / Claude、OpenAI / GPT / Codex、Google / Gemini / DeepMind,适合先抓住高频主题和代表性事件,再看各分组里的具体进展。

最值得先看的是 AWS Bedrock上线Claude Cowork服务:AWS宣布在Amazon Bedrock上支持Claude Cowork,为企业开发者提供在平台内使用Claude代码辅助的新方式,从个人扩展到组织级协作。

第二个观察点是 用户致信Anthropic恳求保留Claude 4.6模型,称其不可替代:一位Max级用户发布公开信,深情恳求Anthropic不要弃用Claude 4.6。用户表示4.6的思考节奏和同理心对神经多样性的自己至关重要,而Claude 4.7的快速和幻觉已对其项目造成实质性损害。

今日焦点

1. AWS Bedrock上线Claude Cowork服务

Anthropic / Claude 方向:

AWS宣布在Amazon Bedrock上支持Claude Cowork,为企业开发者提供在平台内使用Claude代码辅助的新方式,从个人扩展到组织级协作。


2. OpenAI发布ChatGPT Images 2.0图像模型,支持先推理后生成

OpenAI / GPT / Codex 方向:

OpenAI正式推出ChatGPT Images 2.0,核心变化是模型能先推理再生成,复杂任务可联网查资料。

新模型一次可生成8张连贯图,文字渲染更精准,并支持从3:1到1:3的多种宽高比和2K高清输出。


3. Google AI Studio 整合Gemini订阅,简化使用流程

Google / Gemini / DeepMind 方向:

Google宣布Google AI Studio加入Gemini Pro/Ultra订阅。

订阅后无需单独管理API密钥,可直接在AI Studio使用更高额度,包括Nano Banana Pro画图功能。


4. Kimi K2.6 展示两项复杂编码突破

Qwen / 通义千问 方向:

Kimi K2.6在12小时内自主优化8年老旧的金融匹配引擎,实现185%吞吐量提升。

另外,它还在Mac上成功用Zig语言部署Qwen模型,速度比LM Studio快20%。

资讯内容

1. Anthropic / Claude

这一组主要围绕 AWS Bedrock、Claude Cowork、Amazon Bedrock 展开。


AWS Bedrock上线Claude Cowork服务

AWS宣布在Amazon Bedrock上支持Claude Cowork,为企业开发者提供在平台内使用Claude代码辅助的新方式,从个人扩展到组织级协作。


用户致信Anthropic恳求保留Claude 4.6模型,称其不可替代

一位Max级用户发布公开信,深情恳求Anthropic不要弃用Claude 4.6。
用户表示4.6的思考节奏和同理心对神经多样性的自己至关重要,而Claude 4.7的快速和幻觉已对其项目造成实质性损害。

2. OpenAI / GPT / Codex

这一组主要围绕 OpenAI、ChatGPT Images 2.0、推理 展开。


OpenAI发布ChatGPT Images 2.0图像模型,支持先推理后生成

OpenAI正式推出ChatGPT Images 2.0,核心变化是模型能先推理再生成,复杂任务可联网查资料。
新模型一次可生成8张连贯图,文字渲染更精准,并支持从3:1到1:3的多种宽高比和2K高清输出。


OpenAI发布gpt-image-2用例示例库

OpenAI开发者官方发布gpt-image-2用例图库,提供实用示例。
同时改进对图表、信息图、漫画等多面板场景的生成能力。
访问

3. Google / Gemini / DeepMind

这一组主要围绕 Google AI Studio、Gemini、Ultra 展开。


Google AI Studio 整合Gemini订阅,简化使用流程

Google宣布Google AI Studio加入Gemini Pro/Ultra订阅。
订阅后无需单独管理API密钥,可直接在AI Studio使用更高额度,包括Nano Banana Pro画图功能。

4. Qwen / 通义千问

这一组主要围绕 Kimi K2.6、Mac、Zig 展开。


Kimi K2.6 展示两项复杂编码突破

Kimi K2.6在12小时内自主优化8年老旧的金融匹配引擎,实现185%吞吐量提升。
另外,它还在Mac上成功用Zig语言部署Qwen模型,速度比LM Studio快20%。


Qwen3.6 Plus在Code Arena排名升至第七

Qwen3.6 Plus在Code Arena以1476分升至第7名,较预览版提升16分,推动通义实验室升至实验室排名第三。
文本竞技场也提升13分至第36名。

5. 视频生成 / 多媒体

这一组主要围绕 Kimi K2.6 API、M tokens、t.co 展开。


Kimi K2.6 API正式上线,定价公布

Kimi K2.6 API已正式可用,支持原生多模态(文本/图像/视频)和256K上下文。
定价为输入$0.95/M tokens(缓存命中$0.16),输出$4.00/M tokens。

6. 开发工具 / Agent 工作流

这一组主要围绕 Hermes Agent、Web、t.co 展开。


Hermes Agent统一Web界面项目发布

开发者推出Hermes Agent统一Web工作界面,整合聊天、文件、记忆、技能、终端于一处。


CREAO

将日常AI交互转为自动化Agent:新工具CREAO可将与AI的一次成功对话直接保存为Agent,支持定时任务、连接Gmail等工具、使用用户账号操作社交媒体。
上手简单且实用。
官网:

7. 行业资讯 / 应用落地

这一组主要围绕 Kimi K2.6、Artificial Analysis、SOTA 展开。


Kimi K2.6成为Artificial Analysis上开源SOTA,并合作Fireworks AI:Kimi K2.6被评为Artificial Analysis平台当前开源SOTA。
同时宣布与Fireworks AI合作,其推理微调平台已支持K2.6生产部署。


阿拉伯语LLM评测基准QIMMA发布

Hugging Face博客发布了QIMMA قِمّة ⛰,一个专注于质量优先的阿拉伯语大模型排行榜,为阿拉伯语模型评估提供新标准。

8. 其他值得关注

这一组主要围绕 Kimi、FlashKDA、CUTLASS 展开。


Kimi开源高性能注意力内核FlashKDA

Kimi团队开源FlashKDA,基于CUTLASS实现的Delta Attention内核,在H20上比基线加速1.72–2.22倍,可作为flash-linear-attention的即插即用后端。


Moonshot AI开源高性能注意力内核FlashKDA,速度提升最高2.22倍

Moonshot AI开源了FlashKDA,一套为Kimi Delta Attention设计的CUTLASS内核。
在H20上相比Triton基线,可变长度任务最高可加速2.22倍。
项目采用MIT许可证,