乐于分享
好东西不私藏

53-260505 AI 科技日报 (Claude Cowork 将推出主动助手“Orbit”)

53-260505 AI 科技日报 (Claude Cowork 将推出主动助手“Orbit”)

53-260505 AI 科技日报 (Claude Cowork 将推出主动助手“Orbit”)

AI模型

  1. 1. GPT 5.5成本涨近一倍 — OpenRouter的研究表示GPT 5.5成本增49-92%,长提示词生成token减19-34%。 🔗[1]

我现在的Codex都已经不敢用5.5了,没几下就没额度了,而且质量也说不上比5.4好。

  1. 2. 测试IBM Granite 4.1 3B模型21种量化变体 — IBM Granite 4.1 3B模型21种量化变体测试,SVG生成效果平平。 🔗[2]

产品发布

  1. 1. Claude Cowork 将推出主动助手“Orbit” — Anthropic 将为 Claude Cowork 添加主动助手“Orbit”,可从多种应用自动整合信息并生成洞察,支持应用部署。 🔗[3]
  2. 2. OpenAI 升级版语音模式即将推出 — OpenAI 正在开发升级版语音模式,这个是市场期待已久的交互功能更新。 🔗[4]
  3. 3. Claude Code 2.1.128发布 — Claude Code更新,EnterWorktree改进分支管理,MCP重连优化。 🔗[5]

研究论文

  1. 1. ZyphraAI 提出折叠张量序列并行技术 — 新并行方案“折叠TSP”将张量与序列并行合一,可降低大模型多卡推理成本。 🔗[6]
  2. 2. 发布首个持续学习基准 Continual Learning Bench 1.0 — 首个持续学习基准 Continual Learning Bench 1.0 发布,衡量模型从新数据中持续学习的能力。 🔗[7]
  3. 3. 7B Conductor模型在推理基准上达SOTA — 7B Conductor模型编排其他模型,在GPQA-Diamond和LiveCodeBench上登顶。 🔗[8]
  4. 4. 从高斯喷溅提取高质量3D网格 — 工具从高斯喷溅提取3D网格,提升3D重建质量。 🔗[9]
  5. 5. 论文:LLM从上下文提炼技能的新方法 — Ctx2Skill方法让LLM从上下文提炼技能,减少标注依赖。 🔗[10]

工具推荐

  1. 1. 构建 AI Agent 应重视缓存命中率 — 构建 AI Agent 时,高缓存命中率是降低成本的关键,OpenCode 实测命中率 91.6%。 🔗[11]
  2. 2. OpenCode 与 DeepSeek 模型配合良好 — OpenCode 搭配 DeepSeek 模型效果不错,能一次生成简单应用并擅长自我修正。 🔗[12]
  3. 3. 总结十条 Agentic 编码准则 — 一份 Agentic 编码的十条实践准则被分享,指导开发者使用 AI Agent 编程。 🔗[13]
  4. 4. vLLM 在 CrusoeAI 云平台稳定运行 — vLLM 为 CrusoeAI 的多 GPU 推理端点提供稳定支持。 🔗[14]
  5. 5. GBrain v0.27更新 — GBrain v0.27支持更多非主流嵌入和LLM,多模态功能即将上线。 🔗[15]

行业动态

  1. 1. Codex 下载量超越 Claude Code — Codex 在 4 月 30 日后下载量超越 Claude Code,增长曲线出现交叉。 🔗[16]
  2. 2. AI “自主提升”能力正在成为现实 — AI 的自我提升路径是“生成-训练”循环,而非直接代码重写。 🔗[17]
  3. 3. 开放模型应注重成本与专长而非刷榜 — 开放模型应专注于成本和领域专长,而非盲目追赶闭源模型的基准分数。 🔗[18]
  4. 4. Sam Altman 看好语音模型交互未来 — Sam Altman 看好语音模型发展,并观察到用户交互方式已开始改变。 🔗[19]
  5. 5. babyagi推动大众对AI agents的关注 — Google趋势显示,babyagi促使AI agents进入公众视野。 🔗[20]

关注我,每天获取AI最新资讯。

引用链接

[1] 🔗: https://x.com/OpenRouter/status/2051500175554654467[2] 🔗: https://x.com/simonw/status/2051449431686525102[3] 🔗: https://x.com/testingcatalog/status/2051450201668256051[4] 🔗: https://x.com/testingcatalog/status/2051466993782448367[5] 🔗: https://x.com/ClaudeCodeLog/status/2051440923456774438[6] 🔗: https://x.com/multiply_matrix/status/2051536060988137746[7] 🔗: https://x.com/simran_s_arora/status/2051503036372328704[8] 🔗: https://x.com/omarsar0/status/2051489614691794957[9] 🔗: https://x.com/tom_doerr/status/2051469452076581351[10] 🔗: https://x.com/lijigang/status/2051502836513648771[11] 🔗: https://x.com/teortaxesTex/status/2051525774851682409[12] 🔗: https://x.com/teortaxesTex/status/2051498763584143635[13] 🔗: https://x.com/dbreunig/status/2051531751315644726[14] 🔗: https://x.com/vllm_project/status/2051511818942882261[15] 🔗: https://x.com/garrytan/status/2051517574589116510[16] 🔗: https://x.com/kimmonismus/status/2051515496567292310[17] 🔗: https://x.com/teortaxesTex/status/2051535417703371222[18] 🔗: https://x.com/hwchase17/status/2051507094650806453[19] 🔗: https://x.com/sama/status/2051464865634742334[20] 🔗: https://x.com/yoheinakajima/status/2051520039665451290