让AI自己决策,是所有公司最难跨的那道坎
让AI自己决策,是所有公司最难跨的那道坎
凌晨两点,华东某物流园的仓库主管老周接到系统报警:三号仓库存货量突破85%警戒线。
他揉着眼睛打开Excel,调出过去三个月的出入库数据,开始心算——这批货下周能不能清完?
要不要临时租个备用仓?
租的话,成本多少?
不租的话,爆仓的风险有多大?
二十分钟后,他做出了决定。
这个决定可能是对的,也可能让他下个月多付三万块租金。
如果这套决策流程交给AI呢?
不是让AI帮他算数据,而是让AI直接决定:租,还是不租。
你敢吗?
执行AI和决策AI,隔着一道悬崖
过去两年,企业落地AI的路径出奇一致:先找个重复性高的执行环节,用AI替代人工。客服回复、数据录入、代码补全、文档生成——这些场景的共同特点是”有标准答案”,AI只需要按规则执行,人类负责兜底。
这种模式很安全,但天花板也很明显。AI越用越像一个好用的工具,而不是一个能独当一面的角色。
DeepSeek的王子涵在最近一次访谈中提出了一个尖锐的判断:Agent正在从”执行角色”过渡到”决策角色”。这句话听起来像行业黑话,但翻译过来就是——AI不再只是帮你干活,它要开始帮你拿主意了。
直接让AI决策(至少是部分范围或程度),是操作AI-native模式时,极大的一个分水岭。
分水岭的意思是:跨过去,和没跨过去,是两种完全不同的商业模式。
环境越开放,AI越聪明
王子涵在访谈中提到了一个关键概念:Agent RL的scaling law。简单说,就是AI的智能水平,很大程度上取决于它所处的环境有多开放。
这个判断有具体的参照系:
这个光谱揭示了一个反直觉的事实:AI的能力不是单纯由模型参数决定的,而是由”它能接触到的环境”决定的。同样的底层模型,放在完全开放的环境里,和放在聊天框里,表现可能天差地别。
DeepSeek内部的文化也印证了这个逻辑。这家只有200人却管理着1万张显卡的公司,极度强调”资源预算意识”——每一张卡、每一度电、每一次实验,都要有明确的投入产出预期。这种文化不是抠门,而是对”资源自适应”的深刻理解:给一万块预算,做出一万块的效果;给一百万,做出一百万的效果。核心不是花了多少钱,而是投入和产出的匹配效率。
“资源自适应”到底是什么
这个词听起来很抽象,但落到业务场景里很具体。
想象一个电商公司的库存管理系统。传统的做法是:人类设定规则——库存低于X就补货,高于Y就促销清库存。AI的作用是监控数据、触发预警、执行人类预设的规则。
资源自适应的模式是:AI自己决定补多少货、什么时候促销、用什么力度促销。它考虑的不仅是当前库存,还有供应链周期、竞品动态、天气对物流的影响、甚至社交媒体上正在发酵的消费趋势。它的决策目标是:在给定的资源约束下(预算、仓储容量、人力),实现利润最大化。
关键的区别在于:传统模式下,AI是”规则的执行者”;资源自适应模式下,AI是”目标的追求者”。前者不需要理解”为什么”,后者必须理解”为什么”才能做出好决策。
回到老周的仓库。如果AI接管决策,它可能会发现:三号仓库的85%警戒线其实可以放宽到90%,因为下周有批货会提前出库;同时,临时租仓的成本比让货物延迟交付的违约金更高。这些判断需要AI理解业务逻辑、权衡多个目标、在不确定性中做出选择——这才是”决策”和”执行”的本质区别。
为什么大多数公司跨不过去
让AI做决策,最大的阻力不是技术,是信任。
执行环节的AI出错了,后果通常是可控的——客服回复错了,人工纠正就行;代码补全有问题,开发者会审查。但决策环节的AI出错了,后果可能是战略级的:库存决策失误导致资金链断裂,定价策略错误导致市场份额流失,供应链调整不当导致客户集体投诉。
更深层的问题是责任归属。如果AI决定租仓,结果下个月多花了五万块,谁背锅?是写算法的工程师?是批准上线的业务负责人?还是AI本身?
大多数公司的选择是:把决策权留在人类手里,AI只提供”建议”。这很安全,但也意味着AI的价值被压缩到了一个辅助工具的角色。
DeepSeek的做法提供了一个参考:他们不是让AI直接做最终决策,而是让AI在”部分范围或程度”内拥有决策权。比如,AI可以自主决定日常补货量和促销力度,但涉及大额采购或战略调整时,必须人类审批。这种”渐进式放权”既保留了AI的决策价值,又控制了风险敞口。
你的业务,到了让AI决策的阶段吗
判断标准不是技术成熟度,而是三个业务指标:
第一,决策频率是否足够高。 如果某个决策一年只做几次,用AI替代的意义不大。但如果像库存管理、动态定价、广告投放这样每天要做几十次甚至上百次,AI的累积优势就会显现。
第二,决策逻辑是否可以结构化。 AI擅长处理有明确输入和输出、有量化目标、有历史数据支撑的决策。如果决策高度依赖人际关系、政治博弈、或者”直觉”,AI目前的水平还接不住。
第三,错误成本是否在可承受范围。 这不是说AI不能犯错,而是说犯错的代价不能是毁灭性的。渐进式放权的逻辑就是:从低风险的决策场景开始,逐步积累信任和验证数据,再向高价值场景扩展。
如果你的业务同时满足这三个条件,那么”让AI决策”就不再是一个技术问题,而是一个组织勇气问题。
DeepSeek的启示:实验出真知
王子涵在访谈中反复强调DeepSeek的”实验文化”——不是先论证再行动,而是先行动再验证。200人管理1万张显卡,没有冗余的人力去做完美的可行性分析,只能靠快速实验来筛选方向。
这种文化和”资源自适应”是一体两面:正因为每一分钱都要花在刀刃上,所以才需要AI来动态优化资源配置;正因为没有足够的人力做精细化运营,所以才需要AI来承担决策责任。
对于中小企业来说,这反而是一个优势。大公司让AI做决策,需要层层审批、合规审查、风险评估,流程可能拖半年。小公司没有这些包袱,可以更快试错、更快迭代、更快找到AI能创造价值的决策场景。
敢不敢,是一道选择题
老周的故事还有另一个版本。
三个月后,同样的凌晨两点,系统报警再次响起。
但这次,AI已经在十分钟前自动调整了下周的出库计划,把一批非紧急订单延后,腾出了仓储空间。
老周的手机收到一条通知:”三号仓库风险已解除,无需额外租仓。节省成本:32,000元。”
他看了一眼,翻个身继续睡觉。
这个版本不是科幻。动态库存调度、预测性补货、智能仓储优化——这些技术已经成熟,核心障碍从来不是算法能力,而是人类愿不愿意把决策权交出去。
刚才我们说的”分水岭”,分的不是技术高低,而是心态差异。一边是”AI帮我干活”,一边是”AI帮我拿主意”。前者是升级工具,后者是重构分工。
你的公司,现在站在哪一边?
夜雨聆风