
红杉资本之前发布了一篇《Services:The New Software》的文章,我想来聊聊自己的理解。
这篇文章的观点其实很明确,就是认为模型能力的发展会不断吞噬掉工具类软件的生存空间。未来最值钱的公司不是卖AI工具的,而是用AI直接拿结果的公司。
过去互联网和SaaS行业的逻辑是,软件负责提高效率,人负责完成工作,人还是企业支出的大头,比如一家公司可能每年花费 1 万美元购买 QuickBooks,但要花 12 万美元聘请会计师来处理账目。因为真正昂贵的,从来不是工具,而是人力。
但现在,AI可以直接完成工作,他开始变得像一个真正的“数字员工”,全自动化完成任务,甚至连之前人最无法被替代的判断力,也可以通过数据训练来形成。
过去企业购买的是CRM、ERP、财务系统、客服系统,未来企业购买的可能是自动销售、自动财务、自动客服、自动法务。
也就是说,AI开始从“卖工具”走向“卖结果”。
那么这里就有两个非常值得讨论的问题,一个是传统SaaS运转的那一套逻辑真的会彻底失效吗?另一个是AI真的可以像红杉所描述的那样,完全进入业务闭环,直接替代人类完成工作吗?
这里先探讨第一个问题。
过去SaaS之所以能成立,本质上是因为它把“能力”和“责任”做了非常清晰的切割。SaaS厂商负责提供标准化工具,企业自己负责决策、执行和风险承担。这里面的权责边界其实是非常明确的,软件只是工具,真正做决策的人,依然是企业内部的人。
所以传统SaaS的核心优势是它既可以规模化复制,又不需要为企业具体业务结果负责。
但红杉提到的Autopilot,其实已经不是这套逻辑了。
它不再只是提供一个辅助工具,而是开始进入原本由专业人员负责的业务闭环,企业不再是“购买软件”,而是“购买结果”。这时候问题就开始变得复杂了。因为一旦从“卖工具”变成“卖结果”,本质上就不只是产品关系,而开始变成一种责任关系。
比如如果AI生成的合同出现漏洞怎么办?如果AI做出的财税判断出现合规问题怎么办?如果AI的风控决策导致企业损失怎么办?
尤其是在中国大量垂类SaaS场景里,很多业务本身就天然伴随着合规风险、业务风险、处罚风险、属地规则差异、行业特殊流程。这些东西,其实并不是单纯依靠模型能力提升就能解决的。
因为企业真正担心的,很多时候并不是“AI能不能做”,而是出了问题谁负责。
这也是我觉得现在很多AI Autopilot叙事里,比较容易被忽略的一点。
过去SaaS卖的是能力,但Autopilot开始卖的是一种结果承诺。而只要开始对结果负责,AI服务商就很容易从一个软件厂商,慢慢变成一个深度参与业务的服务商。
这时候就会出现一个非常现实的问题:AI公司到底还能不能保持传统SaaS那种高毛利、强规模化、低交付的商业模式?
因为现实情况是,企业业务其实很难存在真正100%标准化的场景,即使是财税、法务、理赔这种看起来规则非常明确的行业,真正落地时也会出现大量异常情况、非标需求、行业差异、地区政策差异。而这些部分,往往又恰恰是最需要人工判断和责任兜底的部分。
所以现在很多所谓的“AI自动驾驶”,本质上可能更像是AI完成80%,人来完成最后20%的审核和兜底。问题在于,这最后20%,往往才是整个业务里最复杂、最难规模化、也是责任最大的一部分。
这也是为什么我觉得AI确实正在推动企业服务从“卖工具”向“卖结果”迁移,但这个过程,可能并不像很多资本叙事里说得那么自然,因为它真正改变的,不只是产品形态,它改变的其实是软件厂商、服务商、企业三者之间原本非常稳定的权责关系。
而这件事情,远比单纯的模型能力提升复杂得多。
夜雨聆风