整理范围:覆盖模型发布与架构创新、开发工具与框架更新、产品应用落地、技术研究前沿、行业战略与资本动向、社区生态观察等核心领域。
DeepSeek半年走了5个核心研发,V4一推再推,被迫首次融资100亿美元;OpenAI在IPO前夜CPO、Sora负责人同日离职,股东开始密谋换帅。两大巨头同时进入"失血模式",而Qwen 3.6用3B激活参数就打到了Opus 4.7的八成——开源小模型的性价比拐点,悄悄到了。
DeepSeek半年流失5名核心研发,V4一推再推,被迫启动首轮融资
DeepSeek正在经历创立以来最严峻的人才危机。据钛媒体报道,2025年下半年至今至少5名核心研发确认离职:V3核心贡献者罗福莉被雷军千万年薪挖至小米,R1核心研究员郭达雅以传闻近亿元总包入职字节Seed,第一代大语言模型核心作者王炳宣去了腾讯——覆盖基座、推理、OCR、多模态四条主线。DeepSeek总共不到200人,竞争对手普遍开出2-3倍薪资。更尴尬的是V4从2月中旬一推再推至今未发布。同日传出DeepSeek正在进行首次外部融资,估值超100亿美元——此前一直靠幻方量化自有资金运营的DeepSeek,终于扛不住了。开源理想主义需要资本弹药续命,这或许是必然的代价。
参考链接:
🔗 钛媒体 tmtpost.com/7958318.html | 虎嗅 huxiu.com/article/4851668.html
OpenAI IPO前夜连环地震:CPO离职、Sora停摆、股东密谋换帅
OpenAI在估值8500亿美元冲刺IPO的关键时刻迎来管理层连环地震。首席产品官Kevin Weil、"Sora之父"Tim Brooks(实际离职的是Bill Peebles,Tim Brooks此前已离开)、企业应用CTO Srinivas Narayanan同日宣布离职。Sora日运行成本曾高达1500万美元,累计收入仅210万美元,最终关停。科研工具Prism团队并入Codex。更劲爆的是——部分股东正在密谋换掉CEO奥尔特曼。《华尔街日报》同日曝光Altman试图让OpenAI为其个人投资的核聚变和太空项目提供支持,利益冲突质疑再度升温。2023年那场宫斗的剧本,似乎正在换个版本重演。
参考链接:
🔗 36氪 36kr.com/p/3771701475394308 | 虎嗅 huxiu.com/article/4851759.html
Qwen 3.6:3B激活参数打到Opus 4.7八成,推理成本几乎为零
Abacus.AI CEO Bindu Reddy称这是"昨天所有人都忽略的大新闻"——Qwen 3.6以仅3B激活参数的MoE架构,达到Claude Opus 4.7约80%的性能水平。一个可以在消费级硬件上本地运行的模型,逼近了最强闭源模型的能力边界。Simon Willison的SVG测试甚至显示Qwen 3.6画出了比Opus 4.7更好的鹈鹕。高质量AI推理正在快速商品化,开源小模型的性价比拐点已经到来——闭源模型的护城河不是被攻破的,是被底下挖空的。
参考链接:
🔗 x.com/bindureddy/status/2045393596824838361
GPT-Rosalind:OpenAI首个垂直科学模型,专攻生物医药
Sam Altman亲自转发:OpenAI推出GPT-Rosalind,定位为支持生物学、药物发现和转化医学的前沿推理模型。这是OpenAI首次发布面向特定科学领域的专用模型——此前无论GPT-4还是o系列都是通用路线。取名致敬DNA结构发现者Rosalind Franklin。垂直科学模型的推出,与Google DeepMind的AlphaFold/AlphaEarth系列形成直接竞争。同日Altman还确认Codex推出$100 ChatGPT Pro套餐。OpenAI在产品线收缩的同时,赌注押向了科学AI和编程这两条明确的变现通道。
参考链接:
🔗 x.com/sama/status/2044920923078447296
Claude 4.7 Tokenizer实测:技术文档Token数暴增47%,账单比你想的贵
Claude Code Camp对Opus 4.7新Tokenizer做了详细基准测试。Anthropic官方声称新Tokenizer比4.6多用1.0-1.35倍Token,但实测结果打脸:技术文档1.47倍,真实CLAUDE.md文件1.45倍,大多数典型内容落在官方范围的上限甚至超出。七类内容加权比率1.325倍。翻译过来:同样的价格和配额,你的上下文窗口消耗更快、缓存成本更高、速率限制更快触发。CJK文本和Emoji的膨胀尤其显著——中文开发者受伤最重。
参考链接:
🔗 claudecodecamp.com/p/i-measured-claude-4-7-s-new-tokenizer
iTerm2高危漏洞:执行cat readme.txt就能被远程控制
安全研究机构Calif.io(与OpenAI合作)披露iTerm2的SSH集成存在严重漏洞。攻击者在文本文件中嵌入特制终端转义序列,用户仅执行cat readme.txt即可触发远程代码执行。原理:iTerm2的SSH集成通过PTY通道与远端conductor脚本交换协议命令,终端输出可以伪造协议消息,劫持conductor执行任意命令。任何能控制终端输出的场景——cat文件、curl输出、日志查看——都可能成为攻击入口。用iTerm2做远程开发的同学,这条立刻需要关注。登上HackerNews Best。
参考链接:
🔗 blog.calif.io/p/mad-bugs-even-cat-readmetxt-is-not
Anthropic推出Claude Design:AI视觉设计工具,正面硬刚Figma
Anthropic发布Claude Design,基于Opus 4.7的协作式视觉设计产品。用户可通过对话、内联评论、直接编辑或AI生成的自定义滑块迭代设计方案。覆盖场景包括交互原型、产品线框图、Pitch Deck(可导出PPTX或发送至Canva)、营销素材,甚至支持语音/视频/3D/Shader等前沿设计。面向Pro/Max/Team/Enterprise订阅用户。这是Anthropic从代码辅助扩展到视觉创意领域的标志性动作,直接对标Figma AI和Canva AI。从写代码到做设计,AI助手的能力边界又往外推了一圈。
参考链接:
🔗 anthropic.com/news/claude-design-anthropic-labs
阿里1000亿美元赌局:HappyHorse登顶,销售开始挖字节客户
36氪深度分析阿里CEO吴泳铭"五年MaaS收入破1000亿美元"目标的可行性。核心引擎是AI视频——HappyHorse-1.0盲测榜登顶后,阿里云销售已开始主动挖角火山引擎客户。背景是字节Seedance独霸AI视频市场,漫剧日消耗7000万元,但产能瓶颈严重(排队3小时+、一个月涨价三次)。从145亿美元起步到1000亿,需要47%年复合增长率连续五年——亚马逊AWS花了8年以31%增速完成类似跨越。目标大胆,但字节的产能缺口给了阿里窗口期。
参考链接:
🔗 36kr.com/p/3770439725285897
字节批量造富:期权回购229.5美元,豆包股首次回购涨30%
字节跳动启动新一轮期权回购,在职员工回购价229.5美元/股,半年涨14.5%。更值得关注的是"豆包股"首次回购——授予价10美元,回购价13.08美元,半年涨30%。从2021年的126美元到229.5美元,内部估值四年翻近一倍。字节把期权回购做成了制度性福利,每年4月和10月各一轮。在AI人才争夺白热化的当下——对比DeepSeek核心研发被2-3倍薪资挖走——字节用"豆包股"为大模型团队定制专属激励,腾讯"青云计划"AI岗扩招超50%。大厂抢人的筹码,越来越重了。
参考链接:
🔗 36kr.com/p/3771731122389769
VLA让机器人自学技能:端到端涌现,世界模型路线紧张了
视觉-语言-动作(VLA)模型在机器人领域取得突破。最新研究显示VLA让机器人展现出涌现能力——无需逐一编程即可自主学习新操作技能。这对此前主流的"世界模型"路线构成直接挑战:VLA通过端到端训练直接从视觉输入映射到动作输出,绕过了显式物理建模。Google DeepMind、Figure等团队的最新进展表明,VLA可能成为通用机器人的关键技术路径。同日HuggingFace CEO公开招募机器人数据集托管Beta测试者,从NLP/CV模型仓库扩展到机器人数据仓库——具身智能的基础设施正在快速成型。
参考链接:
🔗 虎嗅 huxiu.com/article/4851643.html
antirez:AI挖漏洞不是算力军备竞赛,是智能天花板之争
Redis创始人antirez发文反驳"AI网络安全是算力比拼"的类比。核心论证:与Proof of Work不同,Bug发现存在智能天花板——当LLM采样路径饱和后,更多推理Token不会发现新漏洞。以OpenBSD SACK漏洞为例:需要将缺少的窗口验证、整数溢出和空指针分支三个条件串联推理,能力不足的模型即使运行无限Token也无法发现。结论:AI安全的未来不是"更多GPU赢",而是更聪明的模型赢。登上HackerNews Best。同日Emad Mostaque透露"最大AI实验室已拥有能自主发现零日漏洞的模型"——如果属实,攻防均衡点可能已秘密偏移。
参考链接:
🔗 antirez.com/news/163
程序员手写代码3个月:不用AI之后,我发现了什么
Miguel Conner在Substack发布长文记录自己3个月完全手写代码、不使用任何AI辅助的实验。在Codex、Claude Code日益成为开发者标配的2026年,这种"逆向实验"提供了珍贵的对照视角。实验揭示了AI辅助编程的隐性成本:对代码的深度理解下降、调试直觉退化、过度依赖自动补全导致架构思考弱化。登上HackerNews Best。不是说AI编程不好,而是你得知道自己放弃了什么——就像导航App用久了,有些人真的不认路了。
参考链接:
🔗 miguelconner.substack.com/p/im-coding-by-hand
Laravel融资后在Agent中注入广告,开源信任边界再被测试
Laravel在获得融资后开始在Agent框架中直接注入广告。登上HackerNews Best。这是继Gas Town偷用用户Claude额度之后,开源AI工具信任边界再次被拉扯。开发者社区反应激烈:Agent是需要信任的代码执行环境,在其中注入广告不仅影响体验,还可能改变Agent的行为路径。开源项目商业化确实需要收入,但在Agent这个需要深度信任的场景里塞广告,吃相难看了点。
参考链接:
🔗 techstackups.com/articles/laravel-raised-money-and-now-injects-ads-directly-into-your-agent/
夜雨聆风