乐于分享
好东西不私藏

AI 算力从奢侈品变自来水,2分钱大模型时代来了!

AI 算力从奢侈品变自来水,2分钱大模型时代来了!

顶级大模型,每百万tokens输入缓存命中价格为0.02元。

这不是科幻,是DeepSeek昨天刚干的事。

不但如此,国家队也下场了——超算互联网直接推出DeepSeek-V4的永久免费对话服务,企业通过平台API调用的成本最低仅需1块钱。

一周之内,AI算力从“奢侈品”变成了“自来水”。今天我把这两件事连起来讲。

今天不吹DeepSeek,也不黑同行。咱们就冷静看一眼——当AI服务的价格被打到地板之下,这个行业会发生什么。

先梳理一下这72小时发生了什么。

Day 1:4月24日,DeepSeek-V4预览版发布并开源。

提出“百万上下文普惠”的口号,当时很多人以为是宣传话术。

Day 2:4月25日晚,V4-Pro限时2.5折。

当时圈内解读为短期促销、拉新手段。

Day 3:4月26日晚,全系API输入缓存命中价格永久降至原价的1/10。

注意关键信息:永久降价。

就在同一天——4月26日,国家超算互联网出手了:

正式推出DeepSeek-V4的限时免费对话服务,个人用户直接登录就能用,还同步推出了一键API调用服务,1块钱起。

百万Token从“高不可攀”到“人人可用”,不到72小时。

我们来算一笔账

在缓存命中的情况下,V4-Pro每百万Token价格降到0.025元,V4-Flash降到0.02元。

0.02元,两分钱。

同样任务,GPT-5.5和Claude Opus 4.7的成本分别是35美元和30美元,即使算上输出、算上你花式提示词,DeepSeek的成本也大约只有海外巨头的六到十分之一。

有开发者算过一笔真实账单:

编程任务消耗3500万Token,原价31.73元,现在只要5.34元,整体节省高达83%。

所以不是“价格战”那么简单,这已经不是低价了——这是近乎零边际成本。

很多人会问:价格这么低,是不是文字游戏?是不是缓存命中率低、普通人享受不到?

实测数据恰恰相反。V4-Pro在真实编程场景下,输入缓存命中率高达95%。

为什么能做到?

技术角度讲,DeepSeek在V4上做了一项根本性的效率重构——KV Cache技术创新。

传统的KV Cache就像逐字逐句记笔记,一页书就要占一整页空间。

DeepSeek的压缩稀疏注意力,把几十个词的核心意义压缩成一条精华,缓存占用直接砍掉75%。

另一招“重度压缩注意力”更绝,把一整页内容浓缩成几个关键词,压缩率高达128倍。

翻译成人话:别人跑百万字的任务需要十几张显卡,DeepSeek用一张就够了。

这就是DeepSeek敢永久降价的真正底牌。它不是烧钱换市场,是用技术重构了成本模型。

再看另一条线——国家队入场。

国家超算互联网联合DeepSeek推出免费对话服务,本质上是用国家级普惠算力完成了AI的“最后一公里”基建化。

这个门槛看似比开发者低,但释放的信号更关键——AI算力正在成为与中国电网、高速铁路并列的“新基建”。不赚钱,但不能没有。

这盘棋很大:国产模型+国产芯片+国产算力,三端闭环正在加速成型。

V4发布当天,华为昇腾、寒武纪、海光、昆仑芯等8家国产芯片厂商集体宣布“Day 0适配”。从此不再是你等芯片,是芯片等你。

事情发展到这,开始变得微妙了。

表面上,DeepSeek在做慈善。高盛报告里有个词很准确:“V4的本质是降低智能体落地的成本门槛,打开AI应用规模化的新空间。”

意思就是——DeepSeek在赌一个更大的局:当算力不再是门槛,真正比拼的将是应用场景和生态深度。

如果V4的定价逻辑成立,那些些靠API收入生存的中间层厂商将面临剧烈的定价压力。

但话说回来,去年DeepSeek首次把价格打下来的时候,很多人觉得就到此为止了。结果呢?

过去三个月行业都在涨价,跑分越卷越高,账单也越来越高。就在同行以为“价格战终于结束了”的时候,DeepSeek回来清场了——而且是基于技术底层的清场。

不是靠补贴,是算力效率真比你高一个量级。你不跟进,客户跑光;你跟进,亏本卖。哪条路都不好走。

所以怎么看DeepSeek这一轮“价格+政策”的双重出牌?

我的判断是:这标志着AI算力正式进入“准公共产品”时代。价格战不再是商业策略,而是技术效率竞争的必然结果。任何靠信息差、靠算力稀缺来维持高溢价的模式,都会被底层架构的迭代击穿。

最后问两个问题:

你觉得DeepSeek这种定价,是“破坏性竞争”,还是AI进步的必然?

算力的白菜价,会让你的工作或被替代来得更快,还是让你的创业成本更低?

我是老林,关注我,评论区聊聊。