AI 归个人,还是归资本:这才是下一轮社会变化的核心问题
AI 归个人,还是归资本:这才是下一轮社会变化的核心问题
现在关于 AI 的讨论很多。有人讨论大模型能力,有人讨论 Agent,有人讨论 RAG,有人讨论 AI 编程,也有人讨论中层会不会消失、普通人会不会被替代。但我越来越觉得,这些问题虽然重要,却还不是最根本的问题。真正根本的问题其实只有一个:AI 最后归谁?
这里说的“归谁”,不是指模型版权归谁、服务器归谁、API 由谁提供,而是指 AI 最终服务谁的主体性,人的经验最后沉淀到谁那里,谁定义问题,谁控制结构,谁获得收益,谁承担后果。如果这些问题不问清楚,那么所有关于“AI 解放人”“AI 让人更重要”“AI 让人回归创造力”的说法,都很容易变成漂亮话。因为 AI 并不是天然站在人这边,也不是天然站在资本那边,它更像一个放大器:归谁控制,就放大谁的力量。
所以,AI 时代真正的分水岭,不是模型能力,而是主体归属。
一、AI 归个人,意味着生产资料下放
如果 AI 归个人,它的意义就不是简单地让人更快写文章、更快做 PPT、更快写代码。这些只是表层变化。更深一层看,AI 正在把一部分过去只有组织才拥有的生产能力,下放给个体。
过去,一个人很难独立完成复杂生产。不是因为人不聪明,而是因为个人缺少组织能力。一个人缺工具、缺协作、缺资料、缺流程、缺信用、缺交付体系、缺分发渠道,也缺各种专业角色配合。所以人必须进入公司,由公司提供平台、项目、资源、流程、信用和协作网络,而个人把时间、技能、经验和责任交给公司。这就是传统工资关系的基础。
但 AI 出现后,这个基础开始松动。如果一个人拥有自己的 AI、自己的记忆库、自己的知识结构、自己的工具链和自己的验证方法,那么他就不再只是一个出售时间的人。他可以更快学习,更快写作,更快写代码,更快整理资料,更快做自动化,更快生成方案,更快验证结果,也更容易把一个想法做成初步产品。也就是说,他开始具备一部分“小型生产单元”的能力。
这才是 AI 真正深层的意义。AI 归个人,不是普通效率工具,而是一种生产资料下放。它不一定反市场,但它反对一种旧结构:人必须依附组织,才能获得工具、知识、协作和生产能力。如果 AI 真正成为个人可控的生产资料,那么个人的议价能力会提高,资本对人才、知识、产品和协作能力的垄断也会下降。
二、AI 归资本,意味着人工具化升级
但资本并不天然希望 AI 成为每个人自己的生产资料。公司更自然的倾向,是把 AI 放进组织控制体系里:模型归平台,记忆归平台,工作流归企业,员工经验归组织知识库,员工行为轨迹归管理系统,产出归公司,收益归资本,责任继续压在人身上。
这时候,AI 就不是人的工具,而是组织控制人的工具。它会记录人的工作过程,抽取人的经验,标准化人的判断,压缩人的岗位,替代人的执行,监控人的效率,降低人的议价能力。表面上,这叫 AI 提效、组织知识沉淀、Agent 工作流、员工赋能、智能化管理;但从结构上看,它可能是另一回事:把人的隐性能力抽出来,变成资本控制的系统资产。
以前,公司把人变成岗位;现在,公司试图把岗位变成流程,把流程变成数据,把数据喂给 Agent,再反过来替代岗位。过去组织说“你是某个岗位的人”,以后系统可能说“你只是某条流程里的一个节点”,再往后,连这个节点本身也可以被 Agent 替换。所以 AI 归资本,不是简单的技术进步,它可能意味着人的经验、判断、工作流和责任,被重新切割、抽取、标准化,并纳入资本控制的系统。
三、真正的分水岭,是经验沉淀到谁那里
判断 AI 是增强人,还是压缩人,最关键不在于模型多强,而在于人的经验最后沉淀到谁那里。如果经验沉淀到个人,那么人越用 AI,个人越强;如果经验沉淀到公司或平台,那么人越用 AI,系统越强,人越可替代。这就是最核心的分水岭。
所以,“学习 AI”本身不是中性的。如果学习 AI 的结果是你更会定义问题,更会验证输出,更会建立自己的知识结构,更会保护自己的经验资产,更会独立完成复杂工作,那是人的增强。但如果学习 AI 的结果是你更会给平台喂数据,更会把经验写成公司 Skill,更会按 Agent 的格式工作,更会接受 AI 调度和评估,更会成为系统里的一个执行节点,那就不是增强,而是人的降级。
这也是为什么人必须自己干。不是因为人人都要创业,也不是因为人人都要做技术,而是因为没有人会天然替普通人保留主体性。公司不会天然保留,平台不会天然保留,资本更不会天然保留。如果你不自己建立属于自己的经验结构、记忆系统和判断方法,你的经验就会进入别人的系统,你的工作轨迹会进入别人的平台,你的判断会被训练成别人的模型能力,最后你的岗位会被重新定价,而责任仍然留在你身上。
四、公司不是一个统一理性的主体
很多人说,AI 会让组织变强。这个说法太粗糙,因为公司并不是一个统一、理性、稳定的主体。公司是由人、权力、利益、恐惧、信任、责任和信息差构成的复杂系统。一个公司里,有老板的目标,有中层的目标,有产品的目标,有技术的目标,有销售的目标,有实施的目标,有普通员工的自保目标,还有客户、监管和市场的外部压力。这些目标经常并不一致。
所以 AI 进入组织后,不是简单地让“公司变聪明”,更可能发生的是每个节点都拿 AI 放大自己的局部目标。老板用 AI 降本,中层用 AI 包装汇报,产品用 AI 造概念,技术用 AI 快速糊东西,员工用 AI 自保,平台用 AI 收集生产数据。最后组织整体不一定更聪明,它可能只是更快、更复杂、更会表演。
AI 不会自动让组织进化,它只会放大组织已有结构。如果一个组织原本有真实学习能力,AI 会加速学习;如果一个组织原本靠表演、甩锅、压榨和伪结构运行,AI 就会加速表演、甩锅、压榨和伪结构扩张。坏组织最容易用 AI 生产大量方案、汇报、图谱、看板、流程、评估、自动化演示。这些东西看起来像结构,但如果底层没有真实定义、真实责任、真实验证,它们只是伪结构。AI 会让伪结构生产速度暴涨,导致组织表面治理能力增强,底层真实理解能力下降。这不是增强,这是虚胖。
五、组织真正稳定的不是流程,而是“场”
要理解公司、人和 AI 的关系,不能只看流程,还要看“场”。一个组织有两层结构:第一层是显性的组织动力学网络,包括岗位、流程、权限、任务、资源、汇报线、绩效指标和业务系统;第二层是隐性的场,包括权力中心、信任关系、安全感、责任归属、合法性叙事,也包括谁能说真话、谁能背锅、谁被保护、谁被牺牲。
真正决定组织里的人如何行动的,往往不是流程,而是场。很多公司表面流程完整,但场已经坏了。大家不说真话,不承担复杂问题,不交出真实经验,只交表面材料。AI 如果进入这种场,不会修复它,只会加速它。因为当员工意识到自己的经验会被抽走、判断会被标准化、工作会被替代、责任还在自己身上时,人的潜意识就会进入防御状态。表面上配合,实际上不交关键经验;表面上使用 AI,实际上只给系统喂低价值信息;表面上知识沉淀,实际上真正的判断被隐藏起来。
于是组织越想用 AI 抽取经验,人越会保护自己的经验。这会让组织信任进一步崩塌。很多组织以为自己在做 AI 化,实际上是在加速破坏自己的场。它以为自己获得了知识沉淀,实际上只获得了表层材料;它以为自己降低了对人的依赖,实际上破坏了人愿意真实参与的基础。
六、人不是靠意志控制的
很多 AI 叙事默认人是理性适应机器的:AI 更高效,所以人要学习;AI 是趋势,所以人要适应;AI 会替代旧岗位,所以人会进入新岗位。但现实中的人不是这样运行的。人不是纯粹由显性意志控制的,人有潜意识结构,有身份感,有安全感,也有尊严感。
一个人嘴上可以说自己要拥抱 AI、学习 AI、适应变化,但潜意识里可能感受到的是:我的经验被偷走了,我的价值被否定了,我的位置不安全了,我被迫训练替代我的系统,我还要为系统错误承担责任。当显性意志和潜意识结构冲突时,人的行为不会长期听从口号,人会自动防御。这种防御可能表现为消极配合、隐藏经验、不信任组织、抵制自动化、敷衍标注、减少主动承担、组织内耗加重。
这不是人不理性,而是人在保护自己的主体性。所以,组织不能靠“拥抱 AI”“人会更重要”这种口号解决问题。如果 AI 被设计成抽取人的经验、替代人的位置、保留人的责任,那么人的潜意识不会接受。
七、中层不会简单消亡
很多人说,AI 时代中层会消亡。这个判断只看到了效率,没有看到场。中层不会简单消亡,因为中层本来就是组织“场”的一部分。中层不是纯粹为了效率存在,它还承担着保护老板、维持控制、分摊责任、过滤信息、稳定秩序的作用。
表面上,中层的职责是传达目标、拆解任务、协调资源、监督执行、反馈结果。但在真实组织里,中层经常还有另一套作用:它过滤风险,替老板消化矛盾,把模糊意图翻译成可执行命令,把下面的不满隔离在上层之外,把责任分散到流程和团队里,维持老板作为场源的稳定性。没有中层,老板要直接面对真实问题、员工情绪、执行失败、责任归属、信息冲突和利益分配,这会破坏老板作为场源的稳定性。因此,中层的存在不是因为它高效,而是因为它能维持控制。
AI 不一定会消灭中层,但 AI 会暴露中层到底是生产结构,还是控制结构。如果中层是真正的复杂协调者,它可能被 AI 增强;如果中层只是场的保护层、责任缓冲层、信息过滤层,它不会自然消失,但它会变得越来越没有正当性。以前中层可以说“没有我,组织运转不了”,AI 之后,很多协调、文档、拆解、跟踪、汇总、计划都可以被工具部分替代,这时中层剩下的真实功能就会暴露出来:维持控制,过滤真实,分摊责任,保护上层,管理场。所以未来不是“中层没了”,而是中层的效率理由会变弱,控制理由会暴露。
八、组织越成熟,人的工具属性越明显
组织成熟,不一定意味着人更自由。很多时候,组织越成熟,人被工具化得越彻底。成熟组织会做几件事:岗位标准化、流程标准化、考核标准化、经验文档化、风险责任切分、个人不可替代性下降。从组织角度看,这是成熟;从个人角度看,这是被工具化。
因为组织最希望的是人可以替换、流程不断、责任可追、产出可预测、关键经验不锁在人身上。所以越成熟的组织,越不希望个体以完整主体存在。它希望个体成为岗位能力包、流程执行器、责任承担点、绩效对象和可替换资源。这就是组织的成熟逻辑。它的目标不是让人更完整,而是去掉不可替代性,让人更容易被管理、替换和消耗。
高薪也不一定是在奖励一个人的完整成长。很多时候,高薪买的是更强的执行稳定性、更强的责任承受能力、更强的组织适配能力、更强的复杂问题消化能力,以及更强的工具化输出能力。公司给你高薪,不一定是因为它希望你成为完整的人,它是希望你把更多复杂性吸收到自己身上,然后以组织可用的形式输出。高薪员工经常承担的是把混乱变成方案,把矛盾变成执行,把风险变成结果,把老板意图变成团队压力,把系统问题变成个人责任。
所以,高薪本身也可能是一种更高级的工具化契约。薪水越高,组织越要求你把自己的经验、判断、时间、情绪、责任,转化成组织可消耗的稳定产出。这也是为什么组织内的个体很难真正成长。组织不是为了个体成长设计的。组织允许人成长到什么程度,取决于这个成长是否服务于组织控制。它欢迎技能提高、效率提高、服从性提高、问题消化能力提高、跨部门协调能力提高,但它警惕独立判断过强、定义权过强、不可替代性过强、外部议价能力过强,也警惕一个人把组织真实结构看得太清楚。所以很多人在组织里待久了,会越来越熟练,但不一定越来越自由。
九、LLM 主体化是错误方向
现在很多 Agent 和 RAG 工程,表面上是在做智能化:让 LLM 判断要不要检索,让 LLM 抽实体,让 LLM 建关系,让 LLM 决定工具,让 LLM 自我反思,让 LLM 判断答案是否被支持,然后外围再加 RAG、GraphRAG、HyDE、Self-RAG、Rerank、Guardrail、Evaluator、Human-in-the-loop。这看起来很工程化,但它有一个根本问题:它把系统主体交给了 LLM。
这就像用围栏圈住一头野牛,再给它造一个复杂迷宫。核心仍然是野牛。问题不在于工程不够复杂,而在于主体位置错了。真正正确的顺序应该是人先定义主体、行为、客体、规则、证据、后果,系统先建立边界、版本、责任和验证,LLM 只在局部结构内做候选、摘要、检索、解释。LLM 不能成为事实源,不能成为最终裁判,不能决定结构,也不能承担责任,它只能是局部工具。
否则所谓“人更重要”,只是话术。现实中,人会被降级为输入需求的人、审核按钮和责任壳。这也是为什么很多“AI 原生工作流”看起来先进,实际上方向很危险。如果它的目标是让 LLM 成为主体,那么它的目标本身就是替代人。后面再说“人会更重要”“人会回归创造力”,都是安抚性叙事。真正让人重要,不是让人最后点确认,而是保留人的定义权、判断权、经验权、否决权和责任边界。
十、组织进化慢,AI 进化快
组织进化非常慢。因为组织要改变的不只是工具,还有权力结构、利益分配、责任边界、部门墙、历史包袱、客户关系、管理层面子、员工安全感和流程惯性。AI 的进化是软件速度,而组织的进化是人和利益结构的速度,这两个速度完全不在一个时间尺度上。
所以 AI 越快,越会撕开组织的结构裂缝。它会暴露谁其实没有贡献,哪个流程只是表演,哪个中层只是转发,哪个产品只是包装,哪个技术债只是历史包袱,哪个部门只是权力节点。AI 不一定让组织更强,它可能让组织来不及遮掩自己。
而且,当所有人都开始用 AI,就会出现红桃皇后效应。你不用 AI,会掉队;你普通用 AI,只能维持;你深度用 AI,可能短暂领先;但别人也深度用 AI,优势再次消失。最后竞争不在于“有没有 AI”,而在于谁的结构更清楚,谁的反馈更快,谁的组织摩擦更小,谁的经验沉淀更准,谁能更快验证,谁能更快把想法变成产品。这对传统企业很不利,因为大企业和坏组织天然摩擦高。
十一、大批企业会消亡
如果 AI 真正成为个人可控工具,而不是资本控制的驯化系统,那么大量传统企业会失去存在理由。很多公司本来存在,是因为个人做不了复杂生产:个人开发能力不够,设计能力不够,写作能力不够,运营能力不够,自动化能力不够,交付能力不够,协作能力不够。所以人必须进入组织,通过组织拼接能力。
但 AI 会降低这些门槛。一个个人或小团队,可能完成以前一个中型团队才能完成的事。最先被冲击的,会是靠信息差赚钱的公司、靠人海交付的公司、靠包装概念的 SaaS、靠低水平外包的团队、靠流程转发的中间层组织、靠模板化咨询的公司、靠重复内容生产的机构。它们的核心价值不是不可替代技术,而是把多人低效协作包装成产品或服务。AI 一旦让个人可以直接完成这些组合动作,这类公司的组织成本就会变成负担。
如果国家真的支持一人公司、小微公司、个人 AI 生产单元,社会结构会发生明显变化。过去一人公司的难点是能力不全、交付不稳、信用不足、获客困难、税务复杂、合同责任难承担。AI 可以补一部分能力问题。如果制度再补另一部分,比如税务简化、社保灵活、合同模板、信用认证、小额采购通道、责任保险、知识产权保护、公共算力和公共工具,一人公司就可能成为一种新的生产单元。这会改变资本与人的关系,公司不再天然拥有对工具、协作、信用和产品生产的垄断,个人也不再天然只能出售时间。
十二、AI 不是纯技术问题,而是社会契约问题
如果 AI 的收益被少数控制者集中占有,而失业、身份崩塌和责任风险被甩给多数人,那么社会一定会出现反噬。人类社会不是算力系统,人不是可以随便删减的成本项。人有身份、尊严、家庭、债务、期待、比较心理、归属感、公平感和复仇心理。
如果很多人感受到自己的经验被拿走了,岗位被替代了,责任还在,收益归平台和资本,自己却没有重新进入系统的路径,那这就不是就业问题,而是社会契约问题。原来的社会契约是接受教育,进入组织,积累技能,获得收入和地位。如果 AI 打断这条路径,而新的路径没有建立,社会合法性就会被削弱。
动荡不是因为人“不理解技术”,而是因为他们发现技术被用来重新分配权力和收益,而自己被排除在外。所以 AI 如果只是被资本拿来降低成本、抽取经验、替代岗位、压缩个体议价能力,它不会带来稳定的繁荣。它会带来更快的效率,也带来更深的撕裂。
十三、最终判断
AI 的核心问题,不是“会不会替代人”。真正的问题是:AI 是谁的工具?人的经验沉淀到谁那里?谁定义任务?谁控制结构?谁获得收益?谁承担后果?
如果 AI 归资本,它会成为人工具化的升级系统;如果 AI 归个人,它会成为生产资料下放的历史机会。如果 AI 被设计成 LLM 主体化,人会被降级为数据源、审核员和责任壳;如果 AI 被设计成个人可控工具,人可能获得过去只有组织才拥有的复合生产能力。所以最终的分水岭不是模型能力,而是主体归属。
AI 如果增强人的主体性,它可能是解放工具;AI 如果抽取人的主体性,它就是新的控制系统。组织的问题也不在于会不会用 AI,而在于 AI 不会自动让组织进化,它只会加速组织已有结构。好组织被增强,坏组织会更快腐烂。
中层也不会简单消亡。中层是组织场的稳定器。但 AI 时代,个人有机会获得部分组织能力,组织用中层维持控制、去除个体不可替代性的逻辑会被暴露。这时真正被挑战的,不是某个岗位,而是人必须依附组织并被工具化的结构。
如果国家和社会真的支持个人掌握 AI,支持一人公司和小型生产单元,那么大批传统企业会消亡或空心化。不是因为 AI 替代了所有人,而是因为很多企业原本存在的理由,就是个人能力不足和协作成本过高。AI 一旦降低这两个门槛,企业本身的组织成本就会反过来成为负担。
最后,这个问题可以压成一句话:
AI 归个人,是生产资料下放;AI 归资本,是人工具化升级。
所有关于 AI 的争论,最后都会回到这里。
夜雨聆风