最近关于AI有一种常见担忧:技术会不会很快撞上天花板。
理由听起来也不奇怪。训练成本越来越高,GPU供不应求,数据似乎也接近极限。顺着这个逻辑往下推,很多人得出同一个结论——AI的爆发也许只是阶段性的。
但在AI公司内部,讨论的焦点其实不在这里。
微软AI负责人Mustafa Suleyman反复强调一件事:真正决定AI节奏的变量,是算力,而算力仍在持续爆炸式增长。
如果这条曲线没有停下来,那么AI也很难突然停下来。
人类的直觉,跟不上指数曲线
人类对世界的理解基本是线性的。
走一小时路,大概走10公里;走两小时,大概20公里。这种经验在日常生活里几乎不会出错。
问题在于,技术进步很少按这种方式发生。
AI训练规模的变化就是典型例子。公开研究常引用的一组估算是:早期机器学习模型训练规模大约在10^14次浮点运算量级,而今天最先进的大模型已经接近10^26级别。
时间跨度只有十多年。
换句话说,训练计算量增加了接近一万亿倍。
指数曲线有一个特点:前半段看起来变化不大,一旦进入后半段,增长会突然变得陡峭。很多人这两年才明显感觉到AI“突然变强”,其实只是因为曲线刚好走到了这个阶段。
每次看起来要停下时,工程都会再推一把
“AI快到极限了”这种判断,其实已经出现过很多次。
十多年前,深度学习刚开始复兴时,不少研究者认为神经网络规模不可能继续扩大,因为计算成本太高。
2012年的AlexNet改变了这一点。研究者开始系统性地用GPU训练神经网络,算力突然被放大。
之后的十几年,类似的事情不断重复:
更适合并行计算的芯片架构、更成熟的分布式训练系统、更高效的数据处理管道。
从GPT‑3到后来的更大模型,训练所需的GPU规模从几千张扩大到上万张。训练成本也随之上升到极高水平。
但工程体系也在同步进化。
模型并不是被某一个单点突破推动,而是被整套基础设施一起抬高。
AI竞争,本质是算力基础设施竞争
如果把视角拉高一点看,AI行业的竞争格局其实很清晰。
真正稀缺的不是算法,而是算力基础设施。
训练最先进的大模型,需要巨型GPU集群、高速网络、海量存储系统,以及稳定的电力供应。这些条件叠在一起,本质上就是一个工业级计算系统。
不少业内人士把这种系统称为“算力工厂”。
这也是为什么AI浪潮中最关键的玩家往往集中在三类公司:
芯片公司,比如NVIDIA;
云计算平台,比如AWS、Azure、Google Cloud;
拥有大规模数据中心的科技巨头。
模型团队可以快速组建,但算力基础设施需要数十亿美元级别的长期投入。这种资本密度,本身就决定了行业会出现高度集中。
第一批稳定付费的人,其实已经出现
技术能力的提升,并不会自动变成商业收入。
AI产业真正的问题只有一个:谁会持续买单。
目前最稳定的付费群体并不是普通用户,而是企业。
原因很简单。企业只关心两件事:成本有没有下降,效率有没有提升。
已经跑出规模的AI产品,几乎都符合这条规律。
比如代码助手。像GitHub Copilot这样的工具被大量开发团队采用,因为它能直接缩短开发时间。
客服自动化也是类似逻辑。许多公司把AI放在第一层客服,处理大量重复问题,人工只接管复杂情况。
还有企业知识系统。公司内部文档、流程和数据库被接入模型后,员工可以直接用自然语言查询和总结信息。
这些产品有一个共同特征:
它们能被清晰地算出ROI。
只要效率提升能被量化,企业付费就会变成长期支出。
对创业公司来说,模型往往不是入口
当基础模型越来越强时,从零训练模型对大多数创业公司来说并不现实。
资本、算力和数据门槛都太高。
更实际的机会,往往在模型之外。
一个方向是AI基础设施工具,比如数据处理、模型评估、推理优化、训练效率工具。这些产品直接服务AI公司和开发团队。
另一个方向是行业应用。
医疗、法律、金融、制造这些行业有大量复杂流程和专业知识。一旦模型能力足够,效率提升会非常明显。
还有一种正在快速出现的产品形态:AI工作流系统。
它不是单个模型,而是一整套自动化流程,把检索、推理、生成和系统调用连接在一起,让AI完成完整任务。
一旦进入企业日常流程,这类系统很容易变成持续的软件支出。
真正的落地路径:先找到愿意付费的人
如果算力继续增长,模型能力大概率还会提升。但对创业者来说,预测技术曲线意义并不大。
更现实的问题只有一个:谁会先付钱。
一个可执行的起点通常很简单。
先找到企业内部一个高频、重复、可量化的工作,比如客服回复、文档检索、销售邮件生成;
用现成的大模型API把流程自动化;
再用真实业务数据去计算节省的时间或成本。
只要ROI成立,客户就会继续付费。
AI产业早期最稳定的收入,往往不是来自最强模型,而是来自那些把模型嵌入工作流程的人。
夜雨聆风