今年上半年,AI 行业发生了两件看似矛盾的事。
一件是 Anthropic 估值飙到 1.2 万亿美元,5个月收入从90亿冲到450亿,史无前例地反超了 OpenAI。另一件是 xAI 突然解散,马斯克花了几百亿建的 Colossus 1 超算,直接租给了 Anthropic。
一家公司五年做到万亿估值,另一家公司说不干就不干了。
这种极端的撕裂感,说明一个问题:AI 这波浪潮不是"所有人都能赚钱",而是只有少数人赚钱,而且赚得盆满钵满。 其他人——要么在焦虑,要么在跟风,要么在亏钱。
今天这篇就想聊聊:2026年这个时间点,到底是谁在用 AI 挣钱,谁在喊得响但没赚到钱,以及普通人还有没有上车的机会。
赚到钱的,是卖铲子的
先说结论最直接的:卖基础设施的,永远先赚。
这波 AI 浪潮里,赚得最稳最确定的,是算力层。虽然英伟达的 GPU 销量已经不像2024年那样疯狂增长,但AI 芯片的需求仍然在往上走。
关键是这个市场正在分化。
华为昇腾 950PR 的发布就是个分水岭。单卡推理性能是 H20 的2.87倍,成本只要1/4。字节一口气订了25万颗,占华为全年产能33%。这个单子大到什么概念?相当于字节一家吃掉了一座中型晶圆厂的年产量。不管 AI 公司怎么洗牌,造芯片的、建数据中心的、提供算力租赁的,都在数钱。
国产 AI 芯片市场份额今年首次超过50%。两年时间,从"能不能做出来"到"能不能用得更好",这中间是一个巨大的产业机会。2026年国产算力赛道的投资逻辑很简单:谁性价比高,谁就有单子。
另一个赚钱的方向是云服务。
阿里云刚发的财报很能说明问题。季度收入416亿,其中AI相关收入89.71亿,连续11个季度三位数增长。更关键的是——百炼平台客户数同比增长8倍。 企业不是在"试试",是真的在往云上迁移 AI 工作负载。
不管是阿里还是百度还是华为,云的 AI 收入都在高速增长。原因很简单:企业自己买 GPU、自己搭环境、自己维护的成本太高了,不如直接上云。卖铲子的人永远先赚,这个铁律在 AI 时代仍然成立。
赚到大钱的,是模型公司(但不是所有)
Anthropic 1.2万亿估值,年化收入450亿——这个数字让人咋舌。仔细拆一下它的商业模式:
企业订阅(Claude Enterprise):占了收入的60%以上 Claude Code(开发者工具):是增长最快的产品线 API 调用:主要来自金融和科技行业
最关键的一点是:Anthropic 的客户粘性极高。因为一旦企业把自己的工作流跟 Claude 深度绑定——等于更换成本变得非常高。你不会轻易换掉一个已经跑在你业务里、理解你代码库、掌握你API权限的 AI 助手。
OpenAI 走的是另一条路。GPT-5.5 免费开放给所有用户,表面上看是"割肉"——免费用户怎么赚钱?但它的逻辑是:先把用户规模做到极致,再通过企业版、API 调用、定制服务变现。 ChatGPT 的月活已经在往10亿走的级别了,这是所有竞争对手都追不上的护城河。
不过话说回来,模型公司其实是一个"赢家通吃"概率很高的赛道。从2026年5月这个时间点来看,真正有稳定收入、有明确商业模式的模型公司,全球加起来不超过5家。其他的要么在烧钱抢份额,要么正在被淘汰。
真正在落地的,是垂直行业
模型公司的故事听起来很性感,但说实话,真正在"掏钱"而且"赚到钱"的,是那些在垂直行业里把 AI 用透了的企业。
举几个例子。
金融行业: Anthropic 的10款金融智能体在华尔街落地,摩根大通 CEO 亲自站台。金融行业的 AI 付费意愿是其他行业的3-5倍——因为金融领域一个决策失误可能损失上亿,AI 即使只提高1%的决策质量,也能覆盖几十倍的投入。所以你看,Anthropic 先做金融,不是偶然的。
交通行业: 山东高速搞了个"山高·知行"交通大模型,基于30年行业数据,部署了71个智能体,覆盖路网管理、应急处置、绿电协同等场景。国企开始用大模型优化高速公路运维——这个市场其实很大,全中国几十万公里高速公路,每个路段的智慧化改造都是钱。
医疗行业: 国内几家头部医院已经在用 AI 做辅助诊断、病历管理、药物筛选。虽然医疗行业的合规门槛高,但付费意愿也是最强的之一。
代码工具: Anthropic 的 CFO 说公司90%的编码已经是 AI 在干了。程序员变成"监督者"。这是一个被低估的市场——全球有3000万开发者,每个开发者愿意为 AI 编码助手付费的月费是20-100美元。光这个市场,年规模就是几百亿美元。
垂直行业 AI 的赚钱逻辑跟模型公司不一样:它不是卖"通用能力",而是卖"行业经验+AI"的组合。 这个赛道的玩家不是 OpenAI 和 Anthropic,而是有行业积累的公司——比如金融科技公司、医疗 IT 公司、交通科技公司。它们懂行业,再加 AI 能力,产出的价值比纯 AI 公司大得多。
还没赚到钱的,是大部分
说了这么多赚钱的,也得说说不赚钱的。
2026年 AI 行业有一个被媒体忽略的现实:大部分 AI 创业公司还在亏钱。
消费级的 AI 应用——AI 写作助手、AI 绘画工具、AI 聊天机器人——这些赛道的竞争已经白热化了。用户获取成本越来越高,留存率越来越低,同质化极其严重。你今天搞一个 AI 写作工具,明天就有10个一模一样的出来。而且更致命的是——GPT-5.5 免费了,你为什么还要为第三方的 AI 写作工具付费?
这就是 OpenAI 免费策略的杀招:把底层能力免费开放,让所有靠"套壳"赚钱的公司直接失去价值。
百度 Create 大会上还有一个有意思的数据:文心大模型的预训练成本只有行业平均的 6%。当头部公司把成本降到这种程度,腰部玩家基本没有生存空间——不管是技术上的还是商业上的。
所以2026年 AI 创业的残酷现实是:要么你有一个别人抄不走的行业壁垒,要么你有极致的成本优势,否则别碰通用 AI。
最后说几个有意思的信号
文章最后,聊几个我觉得很有价值但容易被忽略的信号。
第一个:个人+AI 的组合正在成为新的生产力单元。
8岁小孩用秒哒3.0做应用、"同事.skill"数字分身、4人无代码团队7天搭养老平台——这些案例不是在讲技术多牛,而是在讲个人能力被 AI 放大之后,边界在迅速扩张。 一个人+AI 可能干以前10个人的活。这个趋势比"AI 替代工作"更值得关注——不是替代,是放大。
第二个:AI 应用的爆发,会先在 B 端,不在 C 端。
从2026年上半年的数据看,C 端 AI 应用(聊天、写作、绘画)的增长已经放缓,但 B 端(企业服务、行业解决方案、自动化)的增长正在加速。73% 的企业已经将 AI 整合到至少一个业务环节。B 端的需求不是"用 AI 更酷",而是"不用 AI 成本更高"。这是一个更稳定的增长逻辑。
第三个:中国 AI 的全球竞争力被低估了。
国产大模型周调用量7.94万亿 Token,两倍于美国。Kimi 和 DeepSeek 全球前二。DeepSeek V4-Pro 的100万 Token 上下文成本是 GPT-5.5 的七分之一。这些数字说明一件事:中国 AI 在成本和规模维度上,已经走出了自己的路线。它不一定要跟 OpenAI 比"谁更聪明",而是在比"谁用得起"和"谁能用这个能力解决实际问题"——而后两者的商业价值,可能比前者更大。
在基础设施层(芯片、云、数据中心)和垂直行业层(金融、医疗、交通、代码工具),机会是真实且巨大的。但在消费层(通用 AI 应用、套壳产品),泡沫确实很大。
普通人现在该怎么办?我的建议是三条:
1. 不要追风口,要追能力。 学会用 AI 做具体的事,比学会讨论 AI 趋势有用一万倍。
2. 不要做通用工具,要做行业专精。 你懂什么行业,就用 AI 在那个行业里找痛点,而不是跟风做什么"AI 写作助手"。
3. 不要怕被替代,但要怕被会用 AI 的人替代。 这不是一句鸡汤——到2026年,"会用 AI 的人"和"不会用 AI 的人"的产出差距,可能已经不是一倍两倍,而是十倍二十倍了。
夜雨聆风