乐于分享
好东西不私藏

信任悖论:AI转型最需要它,却正在失去它

信任悖论:AI转型最需要它,却正在失去它

过去几十年,企业一直把“信任”和“技术”当成两件分开的事。

领导者负责文化、心理安全感和员工投入度;创新团队负责工具、自动化和流程再造。在生成式AI出现之前,这种分工虽然效率不高,但勉强还能运转。

但现在,行不通了。

AI正在动摇职场信任的根基——而恰恰在这个时刻,组织需要前所未有的信任,才能真正把AI用起来。因为真正的转型,包括尝试新事物、坦诚面对错误、快速学习、甚至重新定义自己的角色,都需要深度的心理安全感。可偏偏AI又在同时威胁着人们的职业身份、自我价值感,甚至饭碗。

这就是AI时代的信任悖论:

我们要求人们在最没有安全感的时刻,去承担职业生涯中最大的风险。

领导者必须意识到,AI转型从来就不只是一场技术变革,不可能把它和工作中那些情感与人际互动割裂开。AI项目要成功,转型过程本身就必须成为一个建立信任的过程。信任不是可以并行推进的“另一件事”——它是支撑AI转型每一步的基础设施。

信任正在承受压力:三个维度都在变

组织中的信任,不是靠制度或系统建立的,而是靠人与人之间的日常互动。我们基于瑞纳信任建立模型(Reina Trust Building® Model),把信任拆成三个相互关联的维度:能力信任(Trust of Capability®)、沟通信任(Trust of Communication®)和品格信任(Trust of Character®)。这三个维度通过一件件小事累积起来:信守承诺、开放尊重地沟通、展现专业能力、关心他人等。

信任是AI转型的“硬通货”,因为AI改变了人们协作、学习和共同承担风险的方式。而当下,每一个维度都在承受压力:

  • 能力信任被撼动——AI颠覆了专业知识的定义,重新划分了角色,挑战了人们一直以来的自我认知:“我到底擅长什么?”

  • 沟通信任被挤压——自动化、快节奏、信息不透明,让透明度、发言权和相互尊重变得模糊。

  • 品格信任被考验——AI带来了新的伦理困境,责任边界不清,人们不确定决策是否仍然公平、有原则。

过去建立信任,有个默认前提:专业知识是稳定的,角色是清晰的。

那个世界,已经不存在了。

重新定义“能力信任”

在生成式AI出现之前,能力信任靠的是在某个领域里证明过的专业能力。领导者之所以被信任,是因为他们懂自己的领域,能做对判断,能稳定交付成果。能力=精通,信誉=过往的成功记录。

可现在的问题是:在AI转型这件事上,没有人是真正的专家。这个领域太新、变化太快、未知太多,“精通”根本不是一个现实的基础。对于那些习惯了用“确定性”和“深厚的专业积累”来建立信誉的领导者来说,AI抛出了一个棘手的问题:

“当我真的不知道答案时,我该怎么领导?”

最容易掉进去的陷阱是:假装自己知道。领导者会感到巨大的压力——要表现得胸有成竹,要把AI战略说得无比具体,要暗示自己知道那些其实还没人知道的答案(比如角色到底会怎么变)。

但假装拥有没人拥有的答案,并不会建立信任。反而会快速侵蚀信任——因为现实很快就会戳穿那种自信和真实认知之间的差距。

真正的机会在于:把能力信任从“精通导向”转变为“学习导向的领导力”。

当领导者展现出驾驭不确定性的能力,而不是否认它的时候,信任反而会增强。落到具体的话里,听起来是这样的:

  • “这个我现在还不知道,但我们可以一起想办法。”

  • “这些是目前还不确定的地方,这是我们的应对思路。”

  • “这几个领域变化最快,我们来一起集思广益一下怎么适应。”

在AI转型中,能力信任的核心是为集体学习创造条件:筛选和引入专家的声音,真诚坦率地指出不确定性,以身作则地展现好奇心和探索精神。

一个不假装知道“该怎么精确应对一切”的领导者,反而才是大家愿意追随、愿意信任的领导者。

重新想象“沟通信任”

沟通信任,说的是人们是否觉得领导者在沟通时做到了尊重、开放、真诚关心——不只是说了什么,还包括怎么说的、为什么说。

过去,沟通信任是靠“用心”建立起来的:真诚倾听、认真对待不同意见、尊重他人的专业和视角、把人当人看而不是当角色看。

AI让这些信号变得复杂了——有的很明显,有的很微妙。

当领导者用AI来起草沟通内容时,员工会觉得这是“提高效率”,还是会觉得“不够尊重”?当组织一边探索自动化,一边告诉员工“我们很重视你们”时,那些曾经代表尊重和关怀的信号,开始变得模糊。

当速度和规模成为优先项时,领导者还在真诚地倾听吗?员工的担忧,是被当作有价值的输入,还是被当作“需要管理的阻力”?当效率压过了“人的在场感”,沟通信任就会一点点流失——哪怕初衷是好的。

与此同时,AI还带来了真实的情感负担。人们很累,也很焦虑。他们在面对一个真真切切的生存级恐惧:在一个机器能做我工作的世界里,我的价值在哪?我的成长路径是什么?在这个未来里,我是谁?

在这种背景下,沟通信任可以成为一个稳定器——也可能成为一个引爆点,如果领导者只顾转型速度,而忽略了人的承受能力。

在AI时代建立沟通信任,需要领导者做到两件事:让意图清晰可见,让关注实实在在可感。

具体来说:

  • 坦诚说明什么时候、为什么用AI

  • 主动征求那些受AI变革影响最大的人的意见

  • 把恐惧和不确定性当作“真实有效的数据”,而不是“需要被克服的阻力”

AI也提供了一个实实在在的机会。如果用得好,它可以把领导者从大量重复性事务中解放出来,把时间还给真正的人际连接:

  • 安排更多的一对一交流

  • 承认员工的恐惧,而不是轻描淡写

  • 创造空间,让大家一起消化正在发生的变化

  • 对学习曲线保持耐心

  • 在转型计划中设计恢复和喘息的时间,而不仅仅是赶进度

在充满不确定性的时期,沟通信任更多地是靠“持续的在场”建立的,而不是靠精心打磨的措辞。那些愿意在沟通方式上真正花心思的领导者——尤其是在自己也还没有完整答案的时候——才能让信任穿越AI转型的动荡期。

品格信任在承压

品格信任,说的是人们是否相信领导者的意图是真诚的,以及当面临取舍时,言行是否还能保持一致。它靠的是长期的一致性、透明的预期,和说到做到——让人们即使在高压下也能大致预判领导者的行为。

AI正在破坏这种一致性。

矛盾很快就会暴露出来:

  • “我们重视员工” vs. 同时又在探索会削减岗位的自动化

  • “我们承诺透明” vs. 同时在用AI却不告诉员工

  • “我们想听你们的真实想法” vs. 决策其实早就定好了

AI落地的速度只会放大这些矛盾。那些小小的、言行之间的错位,会变成强烈的信号,快速侵蚀品格信任。

在AI时代建立品格信任,需要领导者把矛盾摊在桌面上说,而不是试图粉饰太平。

比如,领导者可以说:

“我们正在探索AI自动化,同时我们也非常重视我们的员工。这不是非此即彼的矛盾,而是要两者兼顾的两仪。以下是我们目前的思考方式,以及我们已经做出的承诺。”

当需要做出关于AI的艰难决策时(角色调整、重组、技能重塑、职责变化),真正能加强品格信任的,是负责任的AI使用方式,以及对“取舍”过程的透明——而不仅仅是公布最终结果。信任从来不是靠假装有一条完美路径来建立的,而是靠坦诚地承认这条路很难走,然后依然选择和员工一起走下去。

在信任与AI的交汇处领导

AI转型要求领导者面对一个深刻的悖论:

这项工作要想成功,信任必须足够牢固;但AI落地的过程本身,又不可避免地会动摇信任的根基。

最大的错误,就是把这当成两个分开的问题来处理。

建立信任不是AI转型的“附加任务”——信任,就是转型本身。

每一个充满不确定性的时刻,每一次尝试,每一次角色的重新定义,每一次共同承担风险,也同时是信任要么被加强、要么被侵蚀的时刻。

心理安全感,不是转型前就必须到位的前提条件。它是在大家一起往前走的过程中,慢慢长出来的:没有人拥有全部答案时,敢不敢一起暴露脆弱;尝试新东西时,有没有勇气试错;犯错和调整时,能不能坦诚地讨论;周围一切都在变的时候,大家还能不能始终如一地彼此支持。

AI转型所需要的行为——尝试、学习、技能重塑、开放反馈、一起理解变化——当领导者这么做的时候,这些行为本身就变成了建立信任的行为:

  • 用“学习”而不是“确定性”来建立能力信任

  • 用坦诚的参与来建立沟通信任

  • 用清晰的意图和透明的取舍来建立品格信任

那些意识到AI的颠覆性既是技术问题、更是人心问题的领导者,才能创造出这样的条件:让员工敢于冒险、敢于说真话、敢于一起想象新的可能性。而那些把信任和转型当作两件事来处理的人,最终会发现——两件事都做不成。

我们没有声称自己已经找到了答案。没有人找到了。

但一起寻找答案的过程,就是领导力本身的工作。

我们相信,那些愿意拥抱这种整合——把信任和转型当作一个密不可分的挑战——的领导者,才能真正带领组织往前走,既留下能力,也留下文化。如果领导者想把AI真正用起来、用出规模,就必须把每一次试验、每一次部署决策、每一个学习的瞬间,都当作一次加强信任的机会——

因为信任,才是让一切转型成为可能的关键。

CCL

AI Convergence & the New Leadership Frontier

For All Things Humanly Possible. 

至效、致远。