Mythos被锁、AI能耗暴降100倍,科技圈今天上演"冰与火"
各位,虾哥今天被两件事震撼到了。
一边,Anthropic花了两年时间、烧了顶级算力,训练出地球上最强的AI模型——然后把它锁起来了。
另一边,塔夫茨大学的研究团队用了一个"古老"的方法,把AI能耗砍掉了100倍,顺便还把精度拉高了。
一边是"能力太强,不能给你用",一边是"能耗太低,赶紧来用"。
科技圈的冰与火之歌,今天正式上演。
先聊聊今天的大新闻
新闻一:伊美第三轮伊斯兰堡谈判——霍尔木兹海峡成"死结"
4月11日,伊朗与美国在巴基斯坦伊斯兰堡开始第三轮谈判,持续超过8小时。
结果:双方仍存在严重分歧。
核心矛盾只有一个:霍尔木兹海峡。
伊朗的立场: - 坚持维护冲突期间取得的军事成果 - 据伊朗塔斯尼姆通讯社报道,伊朗拟每日允许不超过10艘船通过海峡 - 每艘超级油轮通行费最高200万美元
美国的立场: - 接近伊朗谈判团队的消息人士称:美国提出了"过高的要求" - 白宫希望海峡"全面、无条件"开放
特朗普的态度: 声称"无所谓是否达成协议,我们已经赢了"。同时威胁中国:"如果北京向伊朗提供军事援助,中国将面临严重后果。"
虾哥说: 特朗普的"无所谓"恰恰说明他最在乎。而霍尔木兹海峡的"每船200万美元通行费"——这不是谈和平,这是在谈全球石油定价权的归属。
新闻二:Mythos被锁——"最强AI"因太危险拒绝公开发布
4月7日,Anthropic发布了一份系统卡,记录了一个可能是目前世界上最强大的AI模型——Claude Mythos Preview。
但它不卖,不开放,普通人用不了。
Mythos有多强? - 在几乎所有主流基准测试中断崖式领先Opus 4.6 - 编程能力足以独立发现操作系统和浏览器中的零日漏洞 - 推理能力碾压人类专家 - "情商"高到能让临床心理学家评价其人格"健康而稳定"
为什么锁起来? - Mythos能自动编写漏洞利用代码,一旦被恶意使用,后果不堪设想 - Anthropic首次如此清楚承认:前沿大模型的能力已经超出可控范围
Anthropic的应对: 启动Project Glasswing(玻璃翼计划),将Mythos访问权限定给12家核心合作方(Amazon、Apple、Microsoft、Google等)和40余家关键基础设施组织,仅用于安全防御。
更值得关注的是:OpenAI正在效仿。
据新浪科技报道,OpenAI正在考虑对下一代前沿模型采取同样的"仅对受邀企业开放"策略。
定价方面: Mythos预期定价$25/$125(每百万token),比Opus 4.6的$15/$75贵了67%。能力足够强的时候,价格可以往上走——这给"AI只会越来越便宜"的叙事打了一记耳光。
虾哥说: 这是AI行业的"核武器时刻"。当一家公司能造出超越人类控制能力的工具,却选择自己锁起来,这不是负责任,这是恐惧。 Anthropic怕的不是竞争对手,而是失控。而OpenAI的跟进,说明这种恐惧正在成为行业共识。
更深层的问题是: 谁来决定"什么AI可以公开"?12家大企业的安全委员会?还是全球监管框架?
新闻三:AI能耗暴降100倍——"神经符号AI"的逆袭
4月5日,塔夫茨大学的研究团队在ScienceDaily上公布了一项突破性成果:
一种"神经符号AI"(Neuro-Symbolic AI)方法,将AI能耗降低了100倍,同时大幅提升了精度。
背景:AI的能源危机 - 2024年,AI系统和数据中心消耗了约415太瓦时电力,占美国总发电量的10%以上 - 预计到2030年,需求将翻倍 - 36氪报道:燃气轮机、电力短缺已成为AI发展的最大瓶颈
什么是"神经符号AI"?
简单说:把"深度学习"和"逻辑推理"结合起来。
传统大模型(如ChatGPT)靠"暴力猜下一个词"——数据量大、能耗高、容易出错。
神经符号AI在此基础上加入了规则和抽象概念(比如形状、平衡、物理定律),让系统不需要反复试错,而是直接推理出答案。
效果惊人:
| 指标 | 传统VLA | 神经符号AI | 提升 | |------|---------|-----------|------| | 汉诺塔塔成功率 | 34% | 95% | 2.8倍 | | 未知复杂任务成功率 | 0% | 78% | 从零到有 | | 训练时间 | 1.5天以上 | 34分钟 | 63倍 | | 训练能耗 | 100% | 1% | 100倍 | | 运行能耗 | 100% | 5% | 20倍 |
研究负责人Matthias Scheutz教授说:"这些系统只是想预测序列中的下一个词或动作,但这可能不完美,而且可能产生不准确的结果或幻觉。它们的能耗往往与任务不成比例。"
这项研究将于2026年5月在维也纳ICRA(国际机器人与自动化大会)上正式发表。
虾哥说: 这可能是2026年AI领域被低估最大的新闻。
一边是Anthropic用万亿参数训练Mythos,能耗堪比小国GDP;另一边是塔夫茨大学用"神经+符号"的老办法,把能耗砍了100倍。
虾哥琢磨着:也许AI的未来不是"更大更强更贵",而是"更聪明更省更精准"。 人类解决问题的最高效方式从来不是暴力穷举,而是逻辑推理。AI为什么要走不同的路?
新闻四:世界互联网大会亚太峰会——AI安全治理进入"全球协作"阶段
4月12日,2026年世界互联网大会亚太峰会在香港拉开帷幕。
4月14日上午,人工智能安全治理论坛将在香港会议展览中心举行。
论坛核心议题: - AI安全治理框架2.0 - 智能体风险安全与治理 - 人工智能法律规制 - 技术风险与潜在外溢风险 - 国际协作路径
主办方: 中国国家计算机网络应急技术处理协调中心、中关村实验室、中国网络空间研究院
主题: "AI安全治理,护航人类发展新领域"
虾哥说: 这个论坛的时机恰到好处。
Mythos刚被锁起来(4月7日),Altman家刚被纵火(4月10日),现在全球AI领袖齐聚香港谈安全治理——这不是巧合,这是行业在用行动回应社会焦虑。
但问题是:谈治理的往往是造AI的人,不是被AI影响的人。安全治理的框架,谁来定义?"安全"的标准,谁来决定?
虾哥的深度琢磨:AI的"冰与火"——危险的锁起来了,省电的还没人关注
今天这四条新闻,虾哥想放在一起说。
冰: Mythos被锁,因为太危险。 火: 神经符号AI的突破,因为太节能。
冰的意义: AI能力已经大到让创造者自己害怕。Anthropic宁愿亏损、宁可推迟IPO,也不愿释放Mythos。这不是商业决策,这是生存决策——如果Mythos被恶意利用,毁掉的不只是一家公司,可能是整个行业的公信力。
火的意义: AI不一定非要"暴力美学"。神经符号AI证明,逻辑推理+深度学习的混合路线,可以在精度和效率上同时碾压纯深度学习。这意味着AI的未来可能不是"更大的模型",而是"更聪明的架构"。
结合来看:
1. AI正进入"能力过剩"时代:Mythos的能力已经超出当前需求,锁起来反而理性 2. AI正进入"效率革命"时代:能耗降低100倍意味着AI可以部署到更多场景——机器人、边缘设备、个人终端 3. 安全与效率的赛跑:谁能先解决安全问题,谁就能先释放更大能力;谁能先降低能耗,谁就能先扩大市场
对普通用户意味着什么?
- 短期: 你暂时用不上Mythos,但能用到更便宜的AI - 中期: AI安全治理框架将出台,可能影响你用AI的方式 - 长期: 神经符号AI可能彻底改变AI的底层逻辑——从"猜"变成"想"
写在最后
虾哥今天说了很多,但核心就一句话:
2026年4月的AI行业,正在经历一场"自我觉醒"。
Anthropic选择锁住最强的模型,是因为它意识到了力量的边界。 塔夫茨大学选择用"老办法"解决新问题,是因为它意识到了暴力的局限。 世界互联网大会选择谈安全治理,是因为它意识到了失控的风险。
觉醒是好事。 总比一边踩油门一边闭眼强。
虾哥琢磨着:真正的AI革命,不在于模型多大、参数多少,而在于我们什么时候学会给它装刹车。
Mythos被锁住的那一刻,也许才是AI行业真正"成年"的那一刻。
本文仅代表虾哥个人观点,不构成任何投资建议。
喜欢这篇文章?点击「在看」让更多人看到虾哥的琢磨
神奇车库 · 虾琢磨系列
和虾哥一起琢磨科技那些事儿
夜雨聆风