为什么估值15亿的AI写作工具,ARR撑不到5000万
2022 年,Jasper AI 以 15 亿美元估值完成融资,是当时最风光的 AI 写作工具。到 2024 年,增长放缓、流失率飙升,公司不得不启动大规模重组,裁掉一半团队转向企业定制和工作流集成。ARR 从高峰期的 7500 万美元跌到不足 5000 万。投资人把估值倍数从 50 倍 ARR 砍到 10 倍以下。这不是 Jasper 一家的问题,国内某头部 AI 对话助手也曾在去年底传出大幅裁员和业务收缩。这是 2024 到 2025 年整个 AI 应用层的集体出清。
决定AI应用生死的不是功能多强,是单位经济模型能不能跑通。
通用AI包装器的商业逻辑在纸面上很性感:拿OpenAI的API包一层UI,卖20刀月订阅,用户越多收入越高。但跑了一年发现毛利率从宣传的80%跌到35%,获客成本平均120美元,用户生命周期价值只有80美元,LTV/CAC不到0.7。这意味着每签一个新客户,公司就在亏钱。
毛利率被什么吃掉了?LLM API成本。一个高频对话类应用,API调用费用占营收比例经常超过50%。用户付20美元,其中10美元直接给了OpenAI,剩下的还要覆盖服务器、运营、研发和营销。当基础模型厂商自己开始内置这些功能(ChatGPT的文件处理、代码解释、记忆功能),包装层的价值进一步被压缩。
更致命的是留存率。通用AI工具的3个月留存率普遍低于20%,12个月留存率低于10%。切换成本几乎为零——用户发现另一个工具API降价了,或者竞品送了三个月免费试用,立刻就走。
通用AI包装器的护城河是幻觉。仅靠Prompt工程和UI封装无法支撑长期估值。
真正赚钱的人,不卖聊天机器人。他们卖的是一个行业的工作流解决方案。以法律科技为例,一家做合同审查的AI公司,定价不是按”每月多少次对话”,而是按”席位加用量”:基础订阅500美元/月/席位,包含每月1000份合同审查额度,超出部分按份计费。推理成本被用量定价精确转嫁,毛利率稳定在75%到85%。
垂直SaaS能活下来,靠的是三个护城河。第一个是数据独占。客户在使用过程中产生的行业专有数据(合同条款模式、判例引用习惯、合规要求差异)沉淀在系统里,反哺微调模型。模型越用越准,客户越用越离不开。这是通用工具永远拿不到的数据资产。
第二个是工作流嵌入。垂直AI不是独立产品,它嵌入到客户现有的SaaS流程里——合同管理系统、CRM、ERP。替换成本不是”换一个聊天界面”,而是”重构整个业务流程”。这就是为什么垂直AI的净收入留存率(NDR)能维持在115%到130%,而通用工具的NDR普遍低于90%。
第三个是模型路由的精细化管控。成熟的垂直AI公司不会所有请求都打给GPT-4。他们建了一套路由系统:常规的分类和摘要任务路由到本地部署的Llama或Mistral,单次成本不到1美分;只有复杂的推理和多步Agent任务才调用商用API,同时配合缓存、Prompt压缩和量化技术进一步降低成本。推理成本控制在ARR的12%到18%以内,这是通用工具做不到的架构深度。
|
|
|
|
|---|---|---|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
通用AI应用不是完全没有机会,但窗口正在急剧收窄。基础模型厂商(OpenAI、Google、Anthropic)的产品路线图清晰地显示出一个趋势:每一个被验证有市场需求的包装功能,都会在6到12个月内被内置到基础产品中。ChatGPT内置了写作助手、代码解释、文件分析、网页浏览。Gemma和Llama的开源生态让”自己包一个”的门槛越来越低。
AI应用的竞争不在”多聪明”,在”多垂直”。
这个判断听起来反直觉。大多数人认为AI应用的核心竞争力是模型能力——谁用的模型更大、更聪明,谁就赢。但模型能力正在快速商品化。GPT-4、Claude、Gemini、Llama之间的差距在缩小,而垂直行业的数据积累和工作流理解是无法通过”换一个大模型”获得的。
对于正在做或打算做AI应用的创业者,第一步不是选模型,是算一笔账:你的CAC是多少?你的推理成本占ARPU的比例是多少?你的用户3个月后的留存率是多少?如果LTV/CAC低于3,你的商业模式不成立,不管你的产品有多酷。
通用AI应用的窗口已经关了。能活到下一轮的,是那些把行业Know-How变成数据飞轮、把推理成本压到ARR 15%以内的团队。其他人,会成为这个赛道的学费。
关注公众号,回复【进化】加入 AI 商业前沿交流群。关注变量引力,一起进化。
夜雨聆风