一人公司选 AI 业务,我的五条判断原则
这半年,我反复看到一种很拧巴的 AI 副业状态。
不是说他们做不下去。恰恰相反:Cursor 用着,Claude 订着,工作流搭了一个又一个,日历上全是"测试新工具"。但一问到"现在跑得怎么样",就开始含糊。
全是坑。
但坑不在工具上。真正的问题是:一开始就选错了要解决的事。
说实话,这个弯很容易绕进去。过去半年能看到的东西太多,每个工具都在暗示你一件事:以前小团队才能干的活,现在一个人就能往前推。
但有一句更关键的话,没人说:不是所有事,都适合被一个人用 AI 扛下来。扛错了,反而更乱。
一个负责规划,一个负责执行,一个负责审稿,一个负责总结,看起来像开公司,实际跑两轮就开始互相污染上下文。最后不是事情变少了,是你多了一堆需要判断真假的中间产物。
所以一人公司真正该问的,不是"我能不能用 AI 少雇几个人"。更好的问题是:我的业务,能不能被拆成一套可验证的自动化工作流?
下面五条,是我现在判断一人公司 AI 项目的基本原则。不保证全对,但可以先拿去参考。
一 别押注模型缺陷
写这条的时候,我犹豫了一下。
因为说出来容易像废话:谁不知道模型会变强?但我想说的不是"乐观就对了",而是一条更具体的使用原则:如果没有明确反证,就别把商业模式建立在"模型现在还不会"这件事上。
过去很多 AI 产品,都有一种微妙的侥幸:模型不会写长文,所以我做长文工具;模型不会读长上下文,所以我做文档工具;模型不会规划,所以我做流程模板。
这些方向不是不能做。问题是,如果你的价值只来自"模型暂时不会",模型一升级,你的价值就被吃掉一块。
已经发生了。GPT-4.1 支持最高 100 万 token 上下文;Claude 把 extended thinking 和 Claude Code 推到台前,让模型在回答前做更长推理、通过工具完成更复杂的任务。昨天的"不会",今天就可能变成基础能力。
这里真正重要的是一个方向:模型进步不是抽象地"更聪明",它会直接落到一人公司最缺的几件事,比如读长材料、改代码、按复杂指令执行、少量人工干预完成任务。
所以做一人公司,第一件事是识别一种危险业务:模型越强,你越弱。
只卖一套公开提示词,只卖一个简单套壳界面,只卖一个"帮你总结 PDF"的薄工具,短期可能赚钱,但不是稳固资产。
更好的方向反过来:模型越强,你的系统越强。你有私有数据、行业场景、自己的验收规则、持续反馈、分发渠道。模型越会读材料,你的研究系统越强;模型越会写代码,你的自动化服务越强。
现在可以做一个快速检查:把手上的 AI 项目写成一句话,然后问自己,如果明年模型能力明显提升,这个项目是更值钱,还是直接被默认能力吞掉?
答案是后者的话,先别兴奋。
二 别迷信 AI 员工,先把流程做短
这个阶段很容易让人兴奋。
AI 产品经理、AI 工程师、AI 设计师、AI 运营,把一人公司包装成小公司,你是 CEO,下面是一群 AI 员工。这个比喻早期挺好用的。MetaGPT 这类多智能体框架,把产品经理、架构师、工程师、QA 等角色塞进软件开发任务里,确实证明了一件事:人类管理方法迁移到 AI 智能体上,是有红利的。
但这个红利吃不了太久。
AI 智能体不是人。没有真正的长期责任感,没有稳定的组织记忆,也没有现实里的上下文嗅觉。你把它们拆成十个角色,本质上可能还是同一个模型的十种说话方式。
更麻烦的是:多智能体特别容易把简单问题搞复杂。本来一个脚本能完成的事,被拆成需求分析、任务分派、执行、review、总结、复盘,每一步都要传话,每一步都可能丢信息,每一步都可能生成一堆看起来很认真、实际没解决问题的文字。
这是一人公司最该警惕的地方:别把人类公司的低效,也复制进 AI 系统。
真正值得学的是 SWE-agent 那个方向:不是"让 AI 扮演程序员",而是 Agent-Computer Interface。说白了,就是给模型设计更适合它的操作接口:怎么查文件、怎么改代码、怎么跑测试、怎么拿反馈。
角色名没那么重要,接口设计才重要。
对一人公司来说,好的 AI 工作流不应该先问"我要几个 AI 员工",应该先问几个更朴素的问题:
• 输入从哪里来? • 工具权限给到哪里? • 中间状态怎么记录? • 结果怎么验证? • 失败怎么退回?
今天可以做一件小事:把你最常用的一个 AI 流程画出来,删掉所有只是"互相汇报"的环节,只保留会改变文件、调用工具、做出判断、触发验证的步骤。
流程越短,越能跑。

三 通用 skills 会被内化,别把提示词当护城河
说这条有点打脸。现在很多人都在花大量时间打磨 skill 文件。
这里的 skill,简单理解就是一套写给 AI 的工作说明书:做什么、按什么步骤、用什么工具、输出什么格式、怎么自查。这东西确实有用,我也认同。
但要看清一件事:通用、稳定、高频的 skills,不会永远是你的独门秘诀。
这事在提示词上已经发生过一轮了。早期用 AI,大家要写很长的提示词:请你一步步思考、请你扮演专家、请你先拆解问题……后来模型越来越成熟,你说个普通需求,它自己就会拆解、追问、整理格式了。
skills 也会走这条路。
通用写作流程、通用代码 review 清单、通用研究模板,只要足够高频、足够稳定、足够容易评估,迟早会变成模型默认能力,或者变成产品里的一个按钮。
对普通用户是好事。对一人公司来说,消息不太好:你不能把护城河建立在公开提示词、通用 skill 包、简单工作流模板上。
真正能留下来的,是更贴近你自己业务的东西:你的私有案例库、客户问题记录、行业判断标准、审核规则、工具链、分发渠道、持续反馈。
换句话说:外面的通用 skills 会被吃掉,里面的私有业务系统更可能留下。
这条原则有个反直觉的好处:你可以更轻松地借助模型升级。过去你要写很长的操作说明,现在模型默认就会一部分,省出来的精力可以集中在私有部分。
坏处也很硬:靠技巧套利的窗口期很短。今天觉得自己有一套很强的 AI 工作流,明天可能就变成某个产品的默认按钮。
今天可以做一个分类,把你的 skills 分成两堆。
一堆叫通用技巧,比如"帮我改标题""帮我总结文章""帮我检查错别字",这些不要当长期资产。
另一堆叫私有流程,比如"根据我过去 50 篇文章的选题记录判断这个角度能不能写""根据我的客户反馈决定下一版产品优先改什么",这些才值得沉淀。
别迷信 skill 文件本身。真正值钱的是它背后的业务记忆。
四 把 AI 智能体当生产运行系统,而不只是开发工具
这条说出来可能有点超前,但从现在的产品演进看,这个方向跑不掉。
很多人现在用 Cursor、Claude Code、Codex,是把它们当开发工具:帮我写代码、帮我改 bug、帮我读项目、帮我部署。没错,但这个理解偏窄。
更大的变化是:AI 智能体会进入产品运行期。
说大白话,用户最后消费的,不只是你提前写好的软件功能,而是系统实时生成的结果:报告、代码、设计、方案、研究结论、内容、决策建议,甚至下一步行动。这就是我说的生产运行系统:产品正在跑的时候,AI 智能体参与关键逻辑,生成结果、调用工具、记录状态、触发检查。不是只在开发阶段帮你写代码。
Base44 是个好例子。Wix 宣布以约 8000 万美元收购它,产品承诺是用户用自然语言创建完整应用,系统处理数据库、认证、部署等技术细节。
注意用户买的不是"代码编辑器"。用户买的是结果:我说出想法,系统把应用跑起来。
这对一人公司的启发挺大。很多人做 AI 产品,还停留在"我做个工具,让用户自己操作"。但更有价值的方向可能是:我做一套系统,直接替用户产出结果。
内容公司不只是卖编辑器,而是卖持续生成和筛选后的选题、脚本、配图、发布素材。研究服务不只是卖搜索框,而是卖经过来源核查、反例检查、结构整理后的研究记录。代码服务不只是卖代码生成,而是卖 issue 分析、patch 生成、测试、回滚建议这一整段过程。
好处是:一人公司可以交付过去小团队才能交付的结果。
代价也是真的:AI 一旦进入产品运行期,幻觉就不再是"回答错了",而是业务事故。权限、安全、成本、延迟、日志、审计、回滚,都必须认真处理。
今天可以做的小事:看看你现在的产品或服务,找出其中一个"用户真正想要的结果",然后问自己,我能不能让 AI 从辅助工具往前走一步,参与这个结果的生成?
只走一步就行,别一上来把核心业务全交出去。
五 优先做封闭、可验证、高搜索空间的问题
这是五条里最关键的一条,也是最容易被低估的一条。
什么叫封闭?问题边界清楚,输入和输出相对明确。
什么叫高搜索空间?可能有很多方案,其中绝大多数不对,但只要找到一个好的就值钱。
什么叫可验证?结果对不对、好不好,有没有相对便宜的方法检查。
软件工程为什么是 AI 智能体最早爆发的方向之一?因为它有测试。SWE-bench 这类评测,本质上就是给真实代码库和真实 issue,让模型生成 patch,再用测试去验证。
数学证明为什么适合?因为证明可以被检查。AlphaGeometry 不是让语言模型自由发挥,而是把搜索能力和符号验证结合起来。
AlphaEvolve 更典型。DeepMind 把 Gemini 的生成能力和自动评估器结合,用进化搜索改进算法,被用于数据中心、芯片设计和 AI 训练流程。
这类案例的共同点不是"AI 像人一样聪明",而是:AI 每提出一个方案,都能被验证器打分。
这就是一人公司最该抓的地方。
如果一个业务没有验证器,AI 产出越多你越痛苦。它写一百篇稿子,你要看一百篇;它生成一百个方案,你要判断一百个;它跑出一百个销售话术,你要承担一百个误导风险。
产能变成了审核债务。挺扎心的。
反过来,如果验证便宜,AI 就真的变成杠杆。它试很多方案,你只需要设计好筛选机制。
所以一人公司更适合做这些事:
• 代码修复、测试生成、自动化脚本 • 数据清洗、报表生成、格式转换 • 广告素材生成后用点击率或转化率筛选 • SEO 页面生成后用收录、排名、转化监控 • 垂直研究初筛,再由人做最终判断 • 规则明确的文档检查、合同初筛、财务分类 • 游戏关卡、仿真、算法、设计方案的批量搜索
不太适合一上来就硬吃这些:
• 复杂社交产品 • 金融风控核心决策 • 医疗诊断和高风险健康建议 • 强合规广告 • 大型企业权限系统 • 需要大量线下关系和长期信任的业务
不是 AI 完全帮不上忙,而是这些问题太开放,验证太贵,失败责任太重。它们需要人持续观察环境、定义问题、承担后果。
今天可以给你的项目打三分。
输入清楚吗?不清楚,扣一分。输出可验吗?不可验,扣一分。失败可控吗?不可控,扣一分。
三分项目,可以让 AI 大量试错。一分项目,先别急着堆智能体,先把问题定义清楚。

最后说一句
写到这里,也要反过来问一句:是不是说得太绝对了?
有些原则在特定情况下肯定会被推翻。比如第一条,说不定有人就靠"押注模型缺陷"活得很好,只要跑得足够快、迭代足够勤。我也不确定,真的不确定。
但从现在能看到的案例和工具演进来看,这五条是一人公司用 AI 做业务时,最容易踩的几个坑的反面。
一人公司的关键,不是一个人管理一群 AI 员工,而是一个人设计一套可验证的自动生产系统。
至于你的项目适不适合,建议先小范围试一下,别全梭哈。
夜雨聆风