缘起
最近看了两份新出的报告。
一份是普华永道2026年1月的《中国消费市场展望报告》。另一份是中国传媒大学几个实验室联合发布的《新营销6.0:AI营销时代》。

两份报告,一个讲消费端的变化,一个讲营销端的重构。放在一起看,它们指向了同一个事实:消费者的需求变了,连接消费者的技术手段也变了,但大部分企业的组织形态——部门墙、审批链、KPI孤岛——还卡在十年前。
这不是技术问题。这是一个管理断层。
今天,我想围绕这个断层,分享几点最近的思考。
一、两份报告,同一个信号:消费者和市场正在“静默重构”
先快速说一下这两份报告的核心发现。
普华永道报告的几个数字:
2025年中国社会消费品零售总额50万亿,增速3.7%,低于GDP增速。近60%的连锁百强企业门店规模停滞或收缩。数据不好看。

但报告认为四大结构性力量在积蓄。其中最值得关注的是:中高收入群体在快速扩容。
年可支配收入超过2.5万美元的家庭,2024年是6400万户,约1.8亿人。预计2029年将增至1.16亿户,约3.3亿人。五年增长80%。年收入超过3.5万美元的家庭,未来五年翻倍,达到5600万户。在这个收入水平上,中国人口规模已经是全球第二,仅次于美国。

但有一个数据特别矛盾:到2024年底,居民银行存款总额达到21万亿美元,超过全国GDP的19万亿美元。有钱,但不轻易花。

这意味着消费者的决策变了。他们不是没钱,而是在重新定义“什么值得买”。
报告里还有几个数字:59%的中国消费者定期锻炼,41%回避超加工食品,63%愿意为可持续食品支付溢价——全球只有44%。价值观正在成为消费决策的核心过滤器。

同时,自有品牌渗透率在中国约5%,远低于美国的20.7%和西欧的38%。空间巨大,但成功的关键不是便宜,是信任和差异化。

中传报告的核心观点:
AI营销正在从“辅助写文案”变成“自主做决策”。报告提出“四力”模型——洞察力、创意力、互动力、销售力,四个维度正在被AI逐个重写。

尤其值得注意的是:AI营销资源被分成四大类——展示型、搜索型、互动型、销售型。每一类都在改变企业和消费者的触点形态。
B端AI Agent已经开始覆盖内容营销、广告投放、线索运营、销售服务等全链条。

两份报告放在一起,我看到的是一个断层:
消费者的需求已经从“性价比”变成“价值观匹配”,AI已经具备了实时响应这种需求的技术能力,但大部分企业的组织——流程、考核、权力结构——还停留在“我生产什么你买什么”的时代。
这个断层,是今天所有企业数智化转型的真正起点。
二、最近发生的几件事,让这个断层变得更清晰
最近,行业里发生了三件值得关注的事。
第一件,4月3日,基金行业发布了首个大模型应用规范。中国证券投资基金业协会联合易方达、华夏、智谱华章、华为等机构,发布了《基金经营机构大模型技术应用规范》,覆盖基础设施、数据管理、模型服务、应用技术、安全管理、场景应用六个层级。金融行业开始系统性地规范AI应用。这说明AI不再是“实验室玩具”,而是要进入核心业务了。


第二件,4月6日,六部门联合发文推进电商领域AI应用。商务部等六部门印发文件,明确提出发展“人工智能+电商”,引导电商企业加强人工智能大模型等技术研发应用。政策层面在推动AI在垂直行业的规模化落地。


第三件,今年1月,零一万物发布了万智2.5企业多智能体系统。他们提出了一个概念叫“平替市场部”“平替HR”——多智能体可以实现过去需要至少十人团队才能完成的复杂工作流。零一万物预测,中国企业级智能体应用的市场规模在2028年保守估计将达270亿美元以上。

这三件事加在一起,信号很清楚:AI正在从营销端向企业管理的全链条渗透,从“单点提效”走向“全局优化”。
但恰恰在这个关口,管理者的困惑变得格外刺耳:AI输出质量存疑、团队能力跟不上、管理者不知道如何考核和信任AI的输出。这不是一个工具问题,这是一个管理逻辑问题。
三、三个必须面对的悖论
基于上面的观察,我想用三个悖论来概括当前企业管理者必须面对的核心冲突。每个悖论都没有简单的答案,但回避它们,转型就是空话。
悖论一:效率悖论——AI跑得越快,流程的缺陷暴露得越狠
很多企业引入AI工具后发现,效率不但没提升,反而更乱了。为什么?
“不知道AI做出来的东西准确性、精准度有多少”——这恰恰是问题的缩影。AI生成的内容看起来快,但如果底层数据不准、行业知识库不完整、审核流程缺失,AI只是在加速输出错误信息。
我见过一个案例:一家零售企业上了AI客服系统,响应速度从5分钟缩短到30秒,但客户投诉率反而上升了。后来一查,AI确实回得快,但回的很多信息是错的——因为背后的产品数据库没打通、库存信息不实时、退换货政策在不同渠道不一致。AI只是把混乱加速了。
AI不会掩盖问题,只会暴露问题。如果你的内部数据不通、流程不清、权责不明,AI只会更快地制造错误。
这个悖论的启示是:AI转型的第一步不是买工具,而是把流程理清楚、把数据打通、把部门墙拆掉。这件事没有任何技术能代劳。它是脏活、累活,但不做,AI就是昂贵的玩具。
很多企业号称“数字化转型”,其实是“伪数字化”——系统上了,流程没变,权力没动,文化没改。AI一来,全露馅了。
悖论二:信任悖论——AI越强大,管理者越不敢放手
要让AI Agent发挥价值,管理者必须把一部分决策权交给它。但“我不知道准确性、精准度有多少”——这种疑虑让管理者在关键环节根本不敢放手。
我经常被问到的一个问题是:“AI可以帮我们自动调整广告出价,这没问题。但如果AI建议调整产品定价呢?如果AI建议裁掉一个团队呢?我敢让它做吗?”
这是一个真实的两难。不放手,AI的价值发挥不出来;放手,风险谁承担?
目前几乎没有企业系统性地回答过这个问题。我看到的现状是:大家在边缘业务上大胆试,在核心业务上原地踏步。
这个悖论的启示是:信任不是一种态度,而是一套机制。企业需要建立AI决策的“沙箱环境”——先在低风险场景跑通;需要设置明确的“触发人工介入”的条件——什么情况下AI必须停下来等人;需要建立AI决策的事后审计制度——谁的指令、什么逻辑、产生了什么结果。对于AI输出的内容,还需要建立“人工复核+持续反馈”的闭环,让AI在实践中不断校准。
这些机制,目前几乎空白。不是技术做不到,是管理没跟上。
悖论三:价值悖论——AI可以复制能力,但无法复制判断
零一万物说多智能体可以“平替市场部”。我理解他们的意思——AI可以完成市场部80%的执行工作:写文案、做素材、分析数据、投放优化。
但剩下20%是什么?是判断:这个创意方向对不对?这个品牌调性偏没偏?这个风险要不要冒?这个客户值不值得长期投入?更重要的是,AI输出的东西到底准不准,需要人来判断。管理者的疑虑恰恰说明:AI提供的是“答案”,但“这个答案可信吗”仍然需要人来评估。
这些判断背后是价值观、是审美、是对用户的深度理解、是敢于承担风险的勇气。这些,AI无法量化,也无法复制。
当一个行业的所有企业都用上相似的AI工具时,差异化从何而来?答案可能回到最传统的地方:人的判断力。
这个悖论的启示是:管理者需要把团队从重复劳动中解放出来,但解放出来的时间,不能用来刷手机,要用来做只有人能做的事——深度思考、建立信任、守护价值观,以及持续训练和校准AI的输出质量。
四、三个必须回答的问题
基于这三个悖论,我认为每个企业的管理者,在接下来一到两年内,必须回答三个问题。
第一个问题:AI可以自主决策到哪一层级?
这是一个治理问题。你需要划定一条线:线以下的,AI可以自主执行;线以上的,必须有人介入。这条线划在哪里,每个企业不一样,但必须有。
我建议的原则是:低频、高影响、不可逆的决策,人必须介入。高频、低影响、可逆的决策,可以交给AI。
例如:调整单个广告出价,影响小、可逆,AI可以做。调整产品定价,影响大、改回来有成本,人必须把关。裁撤一个团队,不可逆,绝对不能交给AI。
对于AI生成的内容,还需要建立分级审核机制:低风险内容(如产品描述初稿)可由AI直接生成加抽样复核;中风险内容(如客户沟通话术)需人工审核后发布;高风险内容(如财务数据、法律声明)严禁AI直接生成。
第二个问题:当AI的建议与人类经验冲突,以谁为准?
这不是一个假设问题。它每天都在发生。一个AI Agent基于数据建议A方案,你最资深的销售总监凭经验坚持B方案。你听谁的?
我见过一个企业是这样做的:他们设置了一个“冲突解决规则”——当AI与人类意见不一致时,先在小范围做A/B测试。数据说话。如果AI赢了,人类复盘学习;如果人类赢了,数据反馈给AI重新训练。
这个规则的关键是:不预设谁对谁错,而是建立一个验证机制。这样既尊重经验,又尊重数据。
第三个问题:AI的决策后果由谁承担?
这是最烫手的问题。如果AI Agent的决策导致公司损失,谁负责?技术部门说我只提供工具,业务部门说我只是用了工具,CEO说我又没亲自操作。
我的判断是:责任最终落在使用AI的人和管理者身上。AI是工具,工具没有责任能力。就像你开一辆车出了事故,责任在你,不在车。
但这意味着,管理者必须对AI的决策有足够的理解和监督能力。你不能说“我不懂技术”,然后放手让AI去干。不懂,就不要用。用了,就要负责。
五、一个可带走的判断
说了这么多,最后我想总结一句:
AI不会淘汰企业,但“用AI继续做旧事情”的企业会被淘汰。
真正的分水岭,不是谁先用了AI,而是谁先愿意为了AI,改变自己管理了二十年的那套流程、权力和文化。
引入AI不是增加一个技术部门的事。它要求你重新设计业务流程、重新划分决策权限、重新定义岗位职责、重新建立信任机制,以及建立持续的人工复核和反馈闭环。这些事,没有供应商能替你完成,没有大模型能替你思考。
它是每个管理者的功课。
人的价值,从“做执行”转向“做判断、做校准、做信任”。你要让人去判断AI输出的质量对不对,去校准AI的偏差,去在AI不敢决策的时候承担责任。如果这些也做不了,那问题不在AI,在人。
夜雨聆风