⚡️ 今日看板 (The Pulse)
硅谷核心叙事转向Codex的“ChatGPT时刻”:从编码工具进化为自主长周期电脑代理,更聪明的模型仍是 ultimate priority,开源快模型与社会反噬声音同步浮现。
🧠 深度叙事追踪
🔥 从“更快更便宜”到“更聪明最重要”的优先级回归
💡 叙事转向:Sam Altman历史观点长期强调模型成本与速度优化,而今日推文明确承认“更聪明仍然是最重要的”,标志着行业从效率工程转向纯智能scaling的重大转向。这一转变与历史记忆中他对GPT-5.5和Codex的乐观形成呼应,但也反映了对过去“psyop”的自我修正。
🗣️ @sama | OpenAI CEO
“我一直以为我更想要模型更便宜更快,而不是更聪明。但似乎更聪明仍然是最重要的。❤️ 7051 | 💬 1556”
🗣️ @sama | OpenAI CEO
“5.5 xhigh在fast模式下真的很强,我之前可能被Twitter上的medium模式误导了。❤️ 3852 | 💬 628”
🔥 核心共识:行业最新共识是:智能仍是稀缺资源,速度和成本的边际收益已低于智能提升带来的突破。
⚔️ 最大分歧:大佬们激烈争论:在追求极致智能的同时,如何避免训练和推理成本失控,以及这是否会进一步拉大闭源与开源的差距。
🌱 Codex Goal模式:21小时零干预自主重构落地
🔭 新叙事观察:这一新叙事定义了AI Agent从短期工具向长期自主执行体的进化。用户让Codex以“/goal”模式持续运行21小时14分钟、消耗9亿Token,独立完成前后端数据模型大重构,解决了人类难以坚持的长周期复杂工程问题。这是历史记忆中@gdb和@chamath呼吁的“全新执行层”首次看到实战里程碑。
🗣️ @tualatrix | 独立开发者
“早上我让Codex从昨天开始执行的「goal」整整跑了21小时14分钟,消耗9亿Token,终于进入「Goal archived」状态。它独立完成了前后端数据字段的大重构,没有任何人工干预。❤️ 100 | 💬 22”
🔮 解读与展望:未来6-12个月,自主长运行Agent将从实验进入软件维护、架构重构和企业流程优化的主流应用,显著降低人力长期投入。
🎯 潜在机会:一级市场可关注长上下文状态机编排、分布式Agent容错计算、以及“AI-first”企业重构SaaS工具。
⚠️ 潜在风险:错误在长周期内雪球式累积的风险依然存在,验收机制和“人类最终把关”仍是硬性要求,短期内可能仍是高净值开发者玩具。
⚡ DeepSeek V4 Flash:被低估的高速开源王牌
🔭 新叙事观察:Bindureddy连续发文强调DeepSeek V4 Flash在简单大规模用例中的极致速度和性价比,远超GPT-5.5 thinking和Opus 4.7。这一新叙事凸显中国开源实验室以“绝对自信”姿态,用极低成本交付SOTA长上下文技术,区别于刷榜路线,指向“每月稳定迭代更好模型者胜”的新范式。
🗣️ @bindureddy | AI开发者
“DeepSeek V4 flash值得更多关注。它是非常优秀的高速开源模型,适合大规模简单用例,远快于GPT-5.5 thinking或Opus 4.7。❤️ 541 | 💬 39”
🗣️ @bindureddy | AI开发者
“终于搞清楚如何正确跑DeepSeek V4 Pro了,它的evals表现惊人,甚至超过Opus 4.7 Medium。❤️ 447 | 💬 41”
🔮 解读与展望:未来6-12个月,开源高速模型将主导企业内部简单高频场景,中国实验室可能在开放权重赛道建立持久领先。
🎯 潜在机会:投资围绕DeepSeek类模型的推理优化、垂直领域微调平台,以及“开源模型+企业私有数据”混合部署方案。
⚠️ 潜在风险:高速模型在复杂推理上的短板仍存,若仅用于简单用例,可能面临“ commoditization”导致利润摊薄的风险。
🛠️ Codex生产力爆炸:从人体工程学到图像生成全覆盖
💡 叙事转向:历史记忆中@gdb预测Codex将服务所有电脑用户而非仅程序员,今日推文显示这一预言正在快速实现:Codex被用于优化人体工程学、生成图像画廊、宠物分享以及日常电脑任务,标志着其从编码助手向通用生产力层的深度推进。
🗣️ @gdb | 前GitHub CEO
“Codex用于改善你的人体工程学。❤️ 349 | 💬 37”
🗣️ @gdb | 前GitHub CEO
“ChatGPT Images真的起飞了。❤️ 338 | 💬 50”
🔥 核心共识:最新共识是Codex已成为ChatGPT的严格超集,CLI和Agent复兴已成必然,非程序员反而能更好利用Agent。
⚔️ 最大分歧:争论焦点在于:这种“vibe coding”是否会像@dotey警告的那样,导致隐性知识消亡和工程师代际断层。
⚠️ 生成式AI反噬加剧:从工具到社会净负面的叙事转向
💡 叙事转向:Gary Marcus的长文代表了显著的叙事转向:承认AI在编码和头脑风暴外的多数领域带来净负面影响,包括教育破坏、监控、虚假信息、深度伪造、经济分化及环境成本。这一观点与@pmarca历史记忆中“普通人只在乎实用”的乐观形成鲜明冲突,标志着精英圈反AI情绪从边缘走向主流。
🗣️ @garymarcus | AI批评者
“为什么AI反噬在增长?除了编码和头脑风暴,生成式AI在其他领域对社会是净负面的。它破坏教育、助长监控、虚假信息、深度伪造、网络犯罪、经济分化,并淹没世界于数据中心的环境成本。几乎没有好处。❤️ 71 | 💬 12”
🔥 核心共识:行业内已形成“技术本身中性,但当前管理方式不负责任”的共识,监管缺失被视为核心问题。
⚔️ 最大分歧:最大争议是:生成式AI的伤害是否可被下一代真正可靠AI抵消,以及谁该为当前“slop泛滥”和基础设施过剩买单。
🏗️ AI压缩与效率创业浪潮:Multiverse获2.5亿美金
🔭 新叙事观察:欧洲初创Multiverse Computing获得2.5亿美元巨额融资,专注将开源权重模型压缩得更小、更便宜运行。这代表了“后scaling时代”新叙事:不再只追求更大模型,而是通过创新压缩技术降低全行业能耗与成本,与OpenAI等闭源巨头的智能优先路线形成互补。
🗣️ @theinformation | 科技媒体
“微软Q1财报显示AI使用正在拖累云业务利润率,公司因此实质上提高了价格。❤️ 4 | 💬 1”
🔮 解读与展望:未来6-12个月,模型压缩和效率优化将成为一级市场最热门赛道之一,可能催生新一代“AI基础设施轻量化”独角兽。
🎯 潜在机会:投资模型蒸馏、量化、边缘部署,以及为中小企业提供低成本AI落地的SaaS平台。
⚠️ 潜在风险:压缩技术若牺牲过多智能,可能成为短期泡沫;同时面临与英伟达等硬件巨头深度绑定的监管俘获风险。
💰 资本与估值雷达
👉 投融资快讯:欧洲AI压缩模型公司Multiverse Computing完成2.5亿美元融资,专注让开源权重模型更小更便宜运行;BottleCap AI专注效率型基础模型,推出AI新闻应用Pulse。
👉 VC views:Chamath提问:未来18个月内AI物理模型发现超越硅的新材料的概率有多大?反映市场正从纯智能竞赛转向物理世界瓶颈突破。
📊 风险与中国视角
👉 中国 AI 评价:DeepSeek V4系列以极低成本交付全球最佳开源长上下文模型,迭代速度和务实路线令人印象深刻,中国实验室已在开源高速赛道占据明显优势。
👉 全球映射:中国开源模型正成为全球开发者性价比最高的选择,可能加速AI技术民主化,但也加剧西方对“知识消亡”和地缘技术竞争的焦虑,OpenAI等需通过更快闭源迭代应对。
📣 今日精选推文 (Top 5 Picks)
🗣️ @sama | OpenAI CEO
“我一直以为我更想要模型更便宜更快,而不是更聪明。但似乎更聪明仍然是最重要的。❤️ 7051 | 💬 1556”
🗣️ @tualatrix | 独立开发者
“我让Codex以goal模式连续自主运行21小时14分钟、消耗9亿Token,完成了前后端数据模型的大重构,没有任何人工干预,最终效果基本满意。这让我对AI解决长周期复杂任务更有信心。❤️ 100 | 💬 22”
🗣️ @bindureddy | AI开发者
“DeepSeek V4 flash值得更多关注。它是非常优秀的高速开源模型,适合大规模简单用例,远快于GPT-5.5 thinking或Opus 4.7。❤️ 541 | 💬 39”
🗣️ @gdb | 前GitHub CEO
“Codex用于改善你的人体工程学。❤️ 349 | 💬 37”
🗣️ @garymarcus | AI批评者
“为什么AI反噬在增长?除了编码,生成式AI在多数领域是净负面的:破坏教育、助长监控与虚假信息、加剧网络犯罪和经济分化,还带来环境灾难。管理极其不负责任。❤️ 71 | 💬 12”
🗣️ @sama | OpenAI CEO
“5.5 xhigh在fast模式下真的很强,我之前可能被Twitter上的medium模式误导了。❤️ 3852 | 💬 628”
🗣️ @bindureddy | AI开发者
“每月稳定发布更好模型的实验室将赢得AGI竞赛。中国在开源领域、OpenAI在闭源领域目前是领跑者。❤️ 100 | 💬 22”
🗣️ @dotey | AI观察者
“值得试试:让Codex分析你的Chronicle电脑使用记录,给你直白到逆耳的工作习惯改进建议。❤️ 250 | 💬 9”