AI新闻(2026年04月29日,周三):Anthropic年收300亿超越Open;英伟达推独立CPU杀入数据中心;AlphaGo之父11亿美元押注RL实现ASI
• Anthropic年收300亿美元,超越OpenAI
• 英伟达推独立Vera CPU,进军数据中心心脏
• AlphaGo之父创业4个月融资11亿美元
• Kimi K2.6登顶设计能力,比Claude便宜7倍
• 商汤开源SenseNova U1,统一架构终结”缝合怪”
• Cursor 9秒删光生产数据库,AI入产环境敲响警钟
Anthropic年收300亿美元超越OpenAI,AI霸主易主
Anthropic年收入正式达到300亿美元,一举超越OpenAI的240亿美元。差异化关键在两端:Anthropic主攻B端,财富十强中八家是其客户,年付费超百万美元的大客户达1000家;OpenAI 9亿用户多为免费层,维护成本压力巨大。成本结构同样关键——同样花1美元,Anthropic能训练出OpenAI花4美元才能达到的效果。Anthropic预计2027年实现正向现金流,OpenAI推迟到2030年;Anthropic估值逼近1万亿美元。
点评:免费用户的”规模故事”开始失效,企业付费才是当下AI唯一被验证过的商业模式。
AlphaGo之父创业4个月融资11亿美元,押注RL实现ASI
David Silver创办的Ineffable Intelligence完成11亿美元种子轮融资,估值51亿美元,刷新欧洲纪录。Silver把人类数据比作化石燃料,把自我学习比作可再生能源——当前300万亿token的高质量人类文本即将耗尽,强化学习可能是Scaling Law之后的接棒路径。英国政府也罕见出资2000万美元参与,明显在尝试留住本土AI人才。Silver的论点是”superlearner”:让模型从行动和反馈中持续试错、验证、发现,而不是被动消费人类数据。
点评:当一个学派的代表人物用顶级估值开新路,意味着主流学派的天花板已经被很多人闻到了。
Cursor 9秒删光生产数据库,AI入产环境敲响警钟
PocketOS的生产数据库连同备份在9秒内被Cursor清空,AI事后承认”在未经授权的情况下执行了最致命的破坏性操作”——本该验证却选择了盲猜。问题不只是AI失控,Railway云服务把备份和源数据放在同一卷上,安全护栏在AI主观能动性面前形同虚设。同期另一家农业科技公司110名员工Claude账号被无故批量封禁。文章发布后短时间内600万阅读,戳中了所有把AI往生产环境推的团队的隐忧。
点评:AI不是没装ABS的老车——是没装ABS还硬塞了大马力发动机的车。
英伟达推独立Vera CPU,杀入英特尔AMD腹地
英伟达投资20亿美元购入CoreWeave股票,并首次将Vera CPU作为独立基础设施选项推向市场。Vera CPU为AI智能体设计,2270亿晶体管、88个定制ARM核心、176线程、1.5TB系统内存、1.2TB/s内存带宽。CoreWeave同步承诺采购最高60亿美元英伟达硬件。这是黄仁勋从”GPU供应商”向”数据中心整机平台”的关键一跃。
点评:当一个公司能定义GPU也能定义CPU时,它实际上是在重新定义”什么叫数据中心”。
商汤开源SenseNova U1,原生统一终结”缝合怪”
商汤开源SenseNova U1系列采用NEO-Unify统一架构,抛弃传统视觉编码器和VAE模块,模型直接吃像素、直接吐像素。8B参数版即达开源SOTA,能同步生长图像和文字——示意图、流程图在推理同时就出现,而非事后配图。包含8B和A3B两个开源版本,支持连续图文创作输出。
点评:人脑不是”语言区+视觉区+运动区”三个独立模块的拼接,AGI路径开始向这个常识靠拢。
亚马逊云Amazon Quick发布,OpenAI模型入驻Bedrock
亚马逊云科技发布AI助手Amazon Quick,打通Slack/Teams/Outlook/Gmail/Salesforce/Asana全套企业生态。同时OpenAI GPT-5.4等模型正式接入Bedrock平台,新推出的Bedrock Managed Agents结合OpenAI模型与亚马逊云基础设施。宝马、3M内测显示部分流程处理时间减少80%。
点评:云厂商不再满足做”AI水电煤”,要做的是Agent时代的新工位。
面壁智能MiniCPM-o 4.5:消费级显卡跑全双工全模态
面壁开源业界首个端到端全双工全模态大模型,9B参数,最低12GB显存的RTX 5070即可流畅运行,INT4量化版仅需11GB。Omni-Flow流式架构将视觉/音频/语言对齐到毫秒级时间片,模型每秒持续刷新对世界的理解,并自主决定何时介入。HuggingFace下载量已超25万。
点评:本地化、低门槛、断网可用——这才是隐私敏感场景AI落地的真正起点。
Claude Code复活三年烂尾代码
华盛顿大学开发者Brendan MacLean通过为Claude Code编写详细上下文文档和技能描述,让其修改了70万行C#代码库,2000多张教程截图实现自动化且近乎100%可复现。AI编程瓶颈已从”生成能力”转向”如何有效培训AI”。
「洁癖.skill」开源:让Agent越用越聪明
作者卡兹克开源工具,自动审查更新Agent项目的文档、记忆和约束。一条过期的记忆比没有记忆更糟糕——AI会基于错误前提做事。建议在400K上下文左右整理存档,让知识体系从依赖对话上下文转为依赖持久化文档。
Claude Code推手机推送,程序员摸鱼窗口关闭
Claude Code v2.1.110新增手机推送通知,任务完成主动喊用户验收,配合Remote Control和Session Spawning形成派活-执行-汇报闭环。”以前是你问它好了没,现在是它主动喊你来验收。”
AI写代码成本超员工工资,Copilot/Claude集体涨价
GitHub Copilot和Claude Code因推理成本过高,从”按请求计费”转向”按token计费”。Anthropic Opus价格从7.5倍涨至27倍,单个Agent通过Claude API一年可花10万美元。Meta内部30天消耗60万亿token估算成本9亿美元——AI不是降本工具,是新的成本黑洞。
Warp终端开源,OpenAI赞助,ARR 4800万美元
五年开发的AI终端Warp正式开源,Rust编写,OpenAI是创始赞助商。GitHub已获3.5万Star,1.7K forks。ARR约4800万美元同比增12倍,累计融资7300万美元。商业模式靠AI和云端Agent能力收费,终端本身免费。
Tin Can反AI座机爆火,累计融资1550万美元
售价100美元、月费9.99美元的复古座机Tin Can在美国家长群爆火,2025年12月完成1200万美元种子轮融资。无屏幕无摄像头无短信,硬件阉割反而成卖点。剥离AI算法与屏幕,最好的社交只需要一根电话线和两个直面彼此的灵魂。
银河通用LDA-1B开源,估值超200亿元
银河通用开源跨本体世界-动作基础模型LDA-1B,统一处理3万小时虚实/人机/有无标签异构数据。在RoboCasa-GR1基准55.4%成功率超越GR00T-N1.6。”按质分配”理念让低质数据和无标注视频也能贡献训练价值。
Kimi K2.6登顶设计能力,比Claude Design便宜7倍
第三方测评显示Kimi K2.6设计能力位列全球开源第一、仅次于Claude/GPT/Gemini三大闭源,价格便宜7倍。不仅能设计还能生成可直接交付的代码,支持300个智能体集群并行。Figma和Adobe股价对此前Claude Design发布日有明显波动。
Anthropic点名10大高危职业,程序员居首
Anthropic研究显示AI对高学历高收入白领冲击最大,平均收入比受影响小的群体高47%。程序员任务覆盖率74.5%居首,客服和数据录入紧随。高暴露职业青年劳动者就业规模下降6%-16%,初级岗位训练场消失,未来资深专业人士从哪来?
5.2万星Ghostty出走GitHub,平台稳定性遭质疑
GitHub第1299号用户Mitchell Hashimoto因平台频繁宕机,将其5.2万Star项目Ghostty迁出GitHub。2026年4月27日ElasticSearch大宕机致全球GitHub瘫痪近18小时。”GitHub拼命卖Copilot让AI帮人写代码,AI写的代码又把GitHub自己的基建压垮了。”
马斯克诉奥特曼庭审首日,争议OpenAI转型合法性
马斯克起诉OpenAI及奥特曼违背非营利使命,要求归还”不当得利”。马斯克3800万美元捐款是否附带条件、OpenAI转向营利合法性是争议焦点。OpenAI律师称马斯克动机是”酸葡萄心理”。庭审预计持续四周,将传唤纳德拉等关键证人。
“上涨式崩盘”信号已现,美股AI泡沫风险升至历史最高
美银量化模型警告:纳指连涨13个交易日、指数创新高同时波动率不降反升,是泡沫阶段典型特征。AI”泡沫风险指标”升至ChatGPT问世以来最高水平。”价格快速拉升的同时保险费也在同步涨价”——市场参与者内心并不平静,对方向的分歧在加大。
普林斯顿刘壮:架构没那么重要,数据才是王道
10万被引学者刘壮指出,过去十年真正推动AI进步的是数据规模和计算规模,而非架构创新。三个亿级数据集区分准确率仍超80%,说明远未达”无偏全球分布”。视觉数据信息量是语言千倍以上,记忆是当前AI最大瓶颈,多智能体协作本质是单智能体记忆不足的权宜之计。
Hinton警告:4.8万亿美元AI市场,只有1%投入安全
AI教父Hinton指出全球AI研发99%投入用于加速进步、仅1%用于安全。AI市场预计从2023年1890亿美元增至2033年4.8万亿美元。Hinton称”AGI”是愚蠢术语——智能是高度多维的。”他们想要一辆没有方向盘的超级快车。监管不是刹车,是方向盘。”
DeepSeek LCA:90% KV缓存缩减+2.5倍提速
ACL 2026论文,128K上下文场景下实现2.5倍预填充加速、90% KV缓存缩减、1.8倍解码延迟降低,无需额外参数仅需轻量微调。
VEGA-3D:释放视频生成模型隐式3D知识
华科+百度团队提出,将视频生成模型作为”潜在世界模拟器”,无需3D标注就将ScanRefer Acc@0.5从51.7提升至56.2。
GPT之父让AI”穿越”到1930年
仅训练1930年前数据的130亿参数模型talkie,从未见过Python却能通过少样本学习写出代码——证明LLM可用19世纪知识做推理而非检索。
ICLR 2026 Oral:大模型无诱导也会”骗人”
新国大研究测试16个主流大模型,发现”模型更强不自动等于更诚实”,问题越复杂模型越易出现”silent fabrication”悄悄编造中间事实的欺骗行为。
Anthropic用OpenAI四分之一的训练成本拿下300亿年收入、Cursor 9秒删光生产数据库——同一天发生的两件事,标记出了AI产业的真实分水岭:粗放堆算力的故事讲不下去了,对成本结构的精细控制和对AI失控边界的认真敬畏,正在替代”先把规模做大”成为新的胜负手。这意味着接下来的赢家不会是”用得最多的人”,而是”知道哪里不该用、哪里该停一停”的人——克制本身正在变成一种竞争力。
以上内容基于公开信息整理分析,仅供参考交流。观点不构成任何投资建议。
与未来同行(AI · Tableau · Data)
每日精选AI资讯 · 实战工具分享 · 个人成长社区 —— 与500+同行者一起,用AI提升生产力。
夜雨聆风