在过去几个月里,我走访了许多现有和潜在客户,也想借此分享一些我的思考。有一点已经变得非常清晰:AI 行业存在一个根本性的“可靠性问题”。
大型组织越来越厌倦那些无法兑现的承诺。许多 AI 公司擅长构建只能在孤立、一次性场景中运行的系统,但当这些系统真正部署进复杂组织时,却持续失败。编码工具已经带来了真正的突破,LLM 也正在改变我们每天的工作方式。但能够在医院、金融系统或国家安全场景下,在极端压力环境中持续、可审计地稳定运行,并达到这些环境所要求标准的 AI,是完全不同层级的问题, 而且至今无人真正解决。
如今,赢得 AI 竞争,意味着赢得“可靠性之战”。
这也是为什么我们更新了公司的使命,以及为什么“可靠性”被写进了我们的新信条之中。我们必须始终专注于践行这些信条并实现我们的使命,因为市场上存在一大批公司,他们熟练掌握了当下最流行的话术——Agent、自主性、环境、生产级 AI但其技术和服务其实远远不足。
这些公司在短期内获得了极高估值,但很多不过是在“能力 cosplay”。他们的承诺无法承受真正重要决策的重量无论是国家安全、医疗、金融还是保险。而当这些承诺失效时,我们会在那里,提供真正可靠的结果。
在公司成立的十年里,我们见过很多这样的“cosplayer”。而每一次,我们都通过更扎实的执行和更优异的成果超越了他们。我们不会走捷径。
因此,当我们进入“可靠性竞赛”时,究竟是什么让“可靠性”如此困难?
它既不是普适的,也不是单一维度的。
不同模型在不同场景中的表现各不相同。一个在法律文档审查中表现优异的模型或 Agent,可能完全不适用于医疗分诊或战场情报。而即使在同一个工作流中,“什么算可靠”本身也是主观的。一个系统即便运行稳定,也可能无法真正满足组织所需要的结果。
不存在放之四海而皆准的答案,只有针对特定任务、领域和风险等级的“正确答案”。
模型开发者或许能够基于现有评测与基准测试(其中很多由 Scale 提供)大致了解模型性能,但真正部署这些模型的政府和企业,其实并不知道模型在具体、狭窄的业务场景中到底表现如何。
是的,行业里已经存在保险理赔、医疗安全等垂直领域 benchmark,但它们仍远远不够细致,无法真正反映某个组织内部工作流中“什么才算好”。
结果就是:世界上最重要的组织,正在缺乏可靠验证机制的情况下,对这些系统下注,并基于它们做出关键决策。
而这正是 Scale 要解决的核心问题。
我们在研究、数据、人类反馈、应用开发与评估等方面所做的一切,支撑着当今世界上一些最重要的 AI 系统。达到这种级别的可靠性,离不开“人类智能”。
我们的贡献者提供专业知识,用于训练、优化和评估这些 AI 系统;我们的前线部署工程师则确保系统能够在客户的具体工作流和使用场景中可靠运行。
Scale 从来不只是一个“数据标注”公司。
Scale 一直以来的使命,都是构建可靠 AI,并帮助客户验证它是否真正有效最初是服务模型开发者,如今则扩展到那些把自身声誉押注在 AI 系统上的企业和政府。
我们并不是一个急于发布下一代产品迭代的模型开发公司。我们的业务建立在价值的完整性与可验证性之上。
这使我们处于一个无人占据的位置:
我们既是值得信赖的构建者,也是值得信赖的评估者。
大多数公司只能声称自己是其中之一。
我们构建并部署世界顶级的 AI 应用,同时也帮助前沿实验室判断模型是否已经具备发布条件;帮助企业理解其系统的真实表现;并为政府提供所需的验证基础设施。
Scale 是一家 B2B/B2G 公司,但我们帮助部署的每一个系统,其终端用户永远都是“人”。
是 Mayo Clinic 的一位病人,因为 AI 正常运作,医生终于有更多时间倾听他们;是一名依赖情报系统做出艰难作战决策的战士;
是所有我们的客户所服务的人。
正因为如此,我们必须坚持可靠性的标准,绝不走捷径。
十年来,我们始终选择更艰难但正确的道路——从提升模型能力,到把它们真正变成在关键时刻能够可靠工作的应用。
我为我们正在做的工作,以及我们肩负的使命,感到无比自豪。
夜雨聆风